ما امروزه نه تنها با یک بحران تکنولوژیک بلکه با بحرانی فلسفی مواجه ایم. شاید مهم‌ترین واقعیت درباره زندگی در قرن بیست و یکم این باشد که ما هم اکنون به حیواناتی قابل هک کردن تبدیل شده ایم.

وقتی فناوری شما را بهتر از خودتان می‌شناسدبه گزارش گروه وبگردی باشگاه خبرنگاران جوان، وقتی دو ساله اید، مادرتان بهتر از خودتان شما را می‌شناسد. بزرگ‌تر که می‌شوید اندک اندک چیز‌هایی را در ذهنتان درک می‌کنید که حتی مادرتان هم از آن‌ها خبر ندارد. اما به گفته یوآل نوا حراری بزرگ‌تر که می‌شوید، «رقیب دیگری پا به عرصه می‌گذارد که در شناختن شما هم از مادرتان و هم از خودتان هم سبقت می‌گیرد.» آمازون به زودی به جایی می‌رسد که قبل از سوختن لامپ‌های خانه تان خواهد فهمید چه وقت باید آن‌ها را عوض کنید. یوتیوپ می‌داند مدت‌ها قبل از آنکه تمایلتان را از دست بدهید، چگونه شما را پای نمایشگرتان بنشاند؛ و آگهی سازان در آینده احتمالا قبل از آنکه حتی برای خودتان روشن شود، خواهند فهمید که ترجیحات جنسی شما چه هستند (و قطعا قبل از آنکه به مادرتان بگویید از آن با خبر خواهند شد.)
 
اخیرا من با حراری نویسنده سه کتاب پر فروش و تریستان هریس گفتگویی داشتم. هریس مرکز فناوری انسانی را اداره می‌کند و کسی است که نقش عمده‌ای در امکان پذیر کردن مفهوم «وقت به خوبی گذرانده شده» ایفا کرده، جمله‌ای که شاید بحث برانگیزترین جمله سال ۲۰۱۸ در سیلیکون، ولی بوده است. آن‌ها دو تن از باهوش‌ترین افراد در جهان فناوری هستند و هر کدام با فصاحت و تسلط کامل در این باره صحبت می‌کنند که چگونه انسان‌ها می‌توانند خودشان را در برابر هک شدن مصون‌تر کنند. همانطور که حراری گفته «در حال حاضر ما نه تنها با یک بحران تکنولوژیک بلکه با بحرانی فلسفی مواجه ایم.» در ادامه گفتگوی مرا با این دو می‌خوانید.
 
نیکولاس تامپسون: تریستان، کمی در این باره بگو که چکار می‌کنی؟ بعد هم یوآل تو از خودت بگو.
 
تریستان هریس: من مدیر «مرکزفناوری انسانی» هستم. تمرکز اصلی ما در این مرکز بر این است که چگونه می‌توان فناوری را از نو ساماندهی و جهت دهی کرد که با یک مدل شفاف از ماهیت انسان سازگاری داشته باشد. پیش از این هم یکی از اخلاقگرایان طراحی در گوگل بودم که درباره اخلاقیات مرتبط با مقوله ترغیب و اقناع انسان مطالعه می‌کردم.
 
یوآل نوا حراری: من مورخ هستم و تلاش دارم درک کنم که انسان از کجا می‌آید و رو به کجا دارد.
 
تامپسون: بیایید بحث را با این شروع کنیم که شما دو نفر چگونه با هم آشنا شدید، چون می‌دانم که این موضوع به مدتی قبل برمی گردد. شما دو نفر کی همدیگر را دیدید؟
 
حراری: خیلی جالب است، در یک سفر علمی به جنوبگان ما هم از طرف دولت شیلی به «کنگره آینده» دعوت شده بودیم تا درباره آینده بشریت سخنرانی کنیم و یکی از برنامه‌های کنگره سفری اکتشافی به پایگاه شیلی در جنوبگان برای دیدن گرمایش جهانی با چشم‌های خودمان بود. هنوز هوا خیلی سرد بود و افراد جالب و زیاد دیگری هم در این هیئت حضور داشتند.
 
هریس: کلی فیلسوف و برنده جایزه نوبل. فکر می‌کنم ما به طور خاص با مایکل سندل مرتبط شدیم که یک فیلسوف واقعا حیرت انگیز در حوزه فلسفه اخلاقی است.
تامپسون: خیلی دوست داشتم شاهد این ماجرا می‌بودم. شما درباره مطالب مختلفی می‌نویسید، درباره چیز‌های متفاوتی صحبت می‌کنید، ولی شباهت‌های خیلی زیادی هم در دیدگاه‌های شما وجود دارد؛ و یکی از موضوعات کلیدی این تصور است که ذهن‌های ما دیگر به همان شکلی که زمانی فکر می‌کردیم کار نمی‌کنند؛ که ما آنطور که شاید تا حالا معتقد بودیم، دیگر اختیار چندانی بر ذهن هایمان نداریم. تریستان، چرا تو صحبت را شروع نمی‌کنی و بعد نوا هم وارد بحث شود تا ببینیم به کجا می‌رسیم.
 
هریس: بسیار خوب. من عملا خیلی چیز‌ها از یکی از گفتگو‌های اولیه یوآل آموخته ام، مثل وقتی که درباره دمکراسی صحبت می‌کند و می‌گوید «ما در کجا باید اختیار را به یک جامعه بسپاریم؟» و در کجا باید آن را در دیدگاه‌ها و احساسات مردم لحاظ کنیم. ولی پیشینه من به طور اجمالی این است: من عملا ۱۰ سال گذشته را به مطالعه مقوله ترغیب و اقناع گذرانده ام و زمانی این کار را شروع کردم که در بچگی به شعبده بازی روی آوردم، جایی که انسان یاد می‌گیرد مسائلی وجود دارد که روی ذهن تمام انسان‌ها کار می‌کند. اهمیت ندارد که آن‌ها دکترا دارند، فیزیکدان هسته‌ای هستند یا چه سن و سالی دارند. اینطور نیست که اگر شما ژاپنی صحبت کنید من نمی‌توانم این حقه را روی شما به کار ببندم و این حقه جواب نمی‌دهد. این حقه روی همه جواب می‌دهد. پس در این کار به شکلی این قاعده وجود دارد که از ذهن تمام انسان‌ها می‌توان بهره برداری کرد؛ و بعد در «آزمایشگاه فناوری اقناعی» در استنفورد کار کردم که به دانشجویان مهندسی یاد می‌دهند چگونه اصول اقناع گری را در فناوری به کار ببندند. آیا فناوری می‌تواند احساسات، نگرش ها، باور‌ها و رفتار‌های انسان‌ها را هک کند تا مردم را به تداوم استفاده از فلان محصولات ترغیب کند؟ و به نظر من چیزی که در هر دوی ما مشترک است این است که ذهن انسان یک محدوده کاملا بسته محصور و امن نیست که ریشه در اختیاری داشته باشد که ما فکر می‌کنیم داریم و اگر ما بخواهیم به این روش با آن رفتار کنیم، باید درک کنیم که ابتدا چه چیزی نیاز به محافظت شدن دارد.
 
حراری: من فکر می‌کنم که ما امروزه نه تنها با یک بحران تکنولوژیک بلکه با بحرانی فلسفی مواجه ایم. چون ما جامعه مان را که قطعا لیبرال دمکراسی با انتخابات‌ها و بازار آزاد و از این قبیل است، بر اساس ایده‌هایی متعلق به قرن هجدهم ساخته ایم که به هیچ وجه نه با یافته‌های علمی قرن بیست و یکم و بالاتر از همه با فناوری که اکنون در اختیار داریم سازگار نیستند. جامعه ما بر اساس این ایده‌ها بنا شده که رای دهنده بهتر از همه می‌داند، که همیشه حق با مشتری است، که اختیار نهایی - همانطور که تریستان گفت: - با احساسات انسان‌ها و این فرض است که احساسات و انتخاب‌های انسان‌ها همان حوزه‌های مقدسی هستند که نمی‌توان آن‌ها را هک کرد، که نمی‌توان در آن‌ها دخل و تصرفی کرد. در نهایت انتخاب‌های من و علایق من بازتاب دهنده خواست آزادانه من است و هیچ کس نمی‌تواند به آن دسترسی پیدا کند یا آن را لمس کند. و، اما این دیگر به هیچ وجه مصداق ندارد. در قرن‌های نوزدهم و بیستم ما هزینه چندانی بابت اعتقاد داشتن به این افسانه نمی‌پرداختیم، چون عملا هیچ کس فناوری‌ای را در اختیار نداشت که بتواند چنین دخل و تصرفی را کند. امروزه مردم - برخی از مردم- شرکت‌ها و دولت‌ها برای هک کردن انسان‌ها با فناوری بازی می‌کنند. شاید مهم‌ترین واقعیت درباره زندگی در قرن بیست و یکم این باشد که ما هم اکنون به حیواناتی قابل هک کردن تبدیل شده ایم.

هک کردن انسان
 
تامپسون: توضیح دهید که هک کردن یک انسان به چه معناست و چرا کاری که امروزه انجام می‌شود با چیزی که ۱۰۰ سال پیش می‌توانست انجام شود فرق دارد.
 
حراری: برای هک کردن یک انسان باید درک کرد که چه اتفاقی در درون شما در سطح بدن، در سطح مغز و در سطح ذهن رخ می‌دهد. در این صورت می‌توانید پیش بینی کنید که انسان‌ها چکار خواهند کرد. شما می‌توانید بفهمید که آن‌ها چه احساسی خواهند داشت و البته زمانی که به این درک و پیش بینی رسیدید، معمولا می‌توانید در این احساسات دخل و تصرف کنید، آن‌ها را کنترل و حتی جایگزین کنید؛ و البته این کار را نمی‌توان به طور کامل انجام داد و این کار یک قرن پیش هم تا حدی امکان پذیر بود. اما تفاوت در سطح این دستکاری بسیار چشمگیر است. می‌توانم بگویم که کلید واقعی این است که آیا ممکن است کسی شما را بهتر از خودتان بشناسد یا نه. الگوریتم‌هایی که تلاش می‌کنند ما را هک کنند هرگز کامل نخواهند بود. چیزی به نام شناخت دقیق یا پیش بینی تمام چیز‌ها وجود ندارد. نیازی هم نیست که کامل باشید، فقط باید بهتر از میانگین انسان‌ها بهتر باشید.
 
تامپسون: و آیا ما الان در این نقطه قرار داریم؟ یا آیا باید نگران باشیم که در حال رسیدن به این نقطه هستیم؟
 
حراری: فکر می‌کنم تریستان بهتر از من می‌تواند جواب بدهد که ما هم اکنون کجا هستیم، ولی حدس می‌زنم که اگر هم تا حالا به این نقطه نرسیده باشیم، با سرعت خیلی خیلی زیادی در حال نزدیک شدن به آن هستیم.
 
هریس: به نظر من یک مثال خوب از این موضوع یوتیوپ باشد. شما ویدئویی را که دوستتان فرستاده بعد از استراحت وقت ناهار در یوتیوپ باز می‌کنید. برمی گردید پشت رایانه تان و فکر می‌کنید خیلی خب، می‌دانید که چندین دفعه دیگر خیال داشته اید یک ویدئو را تماشا کنید، ولی دیده اید که دو سه تا ویدئو را تماشا کرده اید و از جایی سردرآورده اید که دیده اید به درون آن مکیده شده اید، ولی این بار قرار است واقعا موضوع متفاوت باشد. فقط خیال دارید همین یک ویدئو را تماشا کنم و بعد نمی‌فهمید چه می‌شود که چنین اتفاقی نمی‌افتد. سه ساعت بعد از خلسه بیرون می‌آیید و می‌گویید: «لعنتی چه اتفاقی افتاد؟» این اتفاق به این دلیل افتاده که شما متوجه نشده اید یک ابررایانه به سمت مغزتان نشان گرفته است. برای همین وقتی که آن ویدئو را باز می‌کنید در حال فعال کردن توانایی محاسبه گری میلیارد‌ها دلاری گوگل هستید و آن‌ها بررسی کرده اند که چه چیزی آن دو میلیارد حیوان انسانی را واداشته تا روی یک ویدئوی دیگر کلیک کنند.
 
گوگل راه‌های بیشتر دیگری هم می‌شناسد که برای بازی کردن در برابر ذهن شما، حرکت‌های بی نقص خود را انجام دهد. اگر ذهنتان را به شکل یک صفحه شطرنج تصور کنید، با خودتان فکر می‌کنید که می‌دانید چطور بی نقص‌ترین حرکت را انجام دهید؛ فقط همین یک ویدئو را تماشا می‌کنم. ولی شما فقط توانایی این را دارید که چند حرکت آینده را روی این صفحه شطرنج پیش بینی کنید. ولی رایانه ذهنتان را محک می‌زند و می‌گوید «نه، نه، نه. من قبل از اینکه این حیوانات انسانی به سراغ یوتیوپ بیایند، میلیارد‌ها بار حالات شبیه سازی شده این شطرنج را انجام داده ام. به زمانی که گری گاسپاروف در برابر دیپ بلو بازنده شد فکر کنید. گری گاسپاروف توانایی پیش بینی حرکت‌های زیادی را در ذهنش دارد، ولی از نقطه خاصی به بعد را نمی‌تواند ببیند. وقتی گری به رایانه دیپ بلو ساخت شرکت آی بی ام باخت، گویی کل بشریت برای همیشه در برابر آن رایانه کیش و مات شد، چرا که او بهترین انسان شطرنج باز بود. پس موضوع فقط این نیست که ما به کلی در حال از دست دادن عاملیت انسانی هستیم. وقتی وارد یوتیوپ می‌شوید این سایت همواره جوری شما را در بقیه زندگی تان به خود معتاد می‌کند که هیچگاه نمی‌توانید نمایشگر‌ها را کنار بگذارید. اما موضوع فقط منحصر به یوتیوپ نیست، به هر جای اینترنت که وارد شوید، اساسا یک ابررایانه به سمت مغزتان نشانه رفته و با ذهنتان شطرنج بازی می‌کند و خیال دارد همواره در این بازی برنده شود.
 
تامپسون: بیایید درباره این استعاره صحبت کنیم، چون شطرنج یک بازی است که یک بازنده و یک برنده دارد. ولی آیا در این میان شطرنج واقعا استعاره درستی است؟
 
تریستان: خب سئوال این است این بازی که در این میان بازی می‌شود به راستی چیست؟ مشکل این است که یوتیوپ عملا اهمیتی نمی‌دهد که شما چه می‌خواهید، تنها چیزی که برایش اهمیت دارد این است که شما را مقابل نمایشگر نگه دارد. برای ترغیب یک دختر نوجوان به تماشای یک ویدئوی مربوط به رژیم گرفتن در یوتیوپ چه چیزی بیشترین کارآیی را دارد؟ باید گفت که یک ویدئوی طولانی‌تر مثلا مربوط به بی اشتهایی. اگر برای شخصی ویدئویی از اخبار یازدهم سپتامبر بفرستید، یعنی فقط یک ویدئوی مبتنی بر واقعیت‌ها و خبری، ویدئویی که بعد از آن پخش می‌شود مربوط به جنگ‌های اطلاعاتی آلکس جونز خواهد بود.
 
تامپسون: خب چه اتفاقی می‌افتد؟
 
هریس: فکر می‌کنم واقعا بستگی دارد! مشکل دیگری که وجود دارد این است که شما می‌توانید در این قبیل چیز‌ها نیز هک شوید و برای همین دولت‌هایی هستند که به معنای واقعی کلمه می‌توانند در نحوه کار سیستم توصیه کردن این سایت‌ها دستکاری کنند. همانطور که یوآل گفت: امثال این سیستم‌ها همان‌هایی هستند که از کنترل خارج هستند و الگوریتم‌ها هستند که به شکلی تعیین می‌کنند دو میلیارد نفر چگونه وقتشان را بگذرانند. هفتاد درصد چیز‌هایی که مردم در یوتیوپ می‌بینند بر اساس توصیه‌های الگوریتم‌ها انتخاب می‌شوند. مردم فکر می‌کنند چیزی که در یوتیوپ مشغول تماشای آن هستند انتخاب خودشان است. یعنی می‌نشینند، فقط می‌نشینند، فکر می‌کنند و بعد انتخاب می‌کنند. اما این درست نیست. هفتاد درصد چیز‌هایی که مردم تماشا می‌کنند ویدئو‌های توصیه شده‌ای است که در طرف راست صفحه به آن‌ها توصیه می‌شود که یعنی ۷۰ درصد، یعنی حدود دو میلیارد کاربر که بیشتر از مجموع پیروان دین اسلام می‌شوند، تقریبا به اندازه پیروان مسیحیت، کمابیش به مدت ۶۰ دقیقه در روز یوتیوپ را تماشا می‌کنند. پس شما ۶۰ دقیقه را دارید که طی آن ۷۰ درصد کاربران روی نمایشگرهایشان قوز کرده اند. این ماشین خارج از کنترل است. این نوعی فرانکشتاین دیجیتال است که از تمام این اهرم‌ها استفاده و مردم را به این جهات متفاوت هدایت می‌کند.
 
تامپسون: یوآل! این صحبت ما را به جایی می‌رساند که تو می‌گویی این وضعیت تو را از آینده دمکراسی می‌ترساند؛ که این نگرانی را در تو به وجود می‌آورد که با این وضعیت آیا دمکراسی می‌تواند بقا پیدا کند یا همانطور که درکتابت نوشته‌ای با این وضعیت: «دمکراسی به یک نمایش عروسکی تبدیل خواهد شد.» می‌شود بیشتر توضیح بدهی که منظورت چیست.
 
یوآل: بله منظورم این است که اگر ما خود را با این واقعیت‌های جدید سازگار نکنیم، دمکراسی صرفا به یک نمایش عروسکی عاطفی تبدیل خواهد شد. اگر به این توهم ادامه دهید که انتخاب انسانی را نمی‌توان هک کرد، نمی‌توان در آن دخل و تصرف کرد و می‌توانیم کاملا به آن اعتماد کنیم و مرجعیت و اختیار کاملا در دست ماست، در این صورت خیلی زود شما از یک نمایش عروسکی عاطفی سردرخواهید آورد؛ و این یکی از بزرگ‌ترین خطراتی است که ما با آن مواجه ایم و در واقع نتیجه نوعی ضعف و فقر فلسفی است که ایده‌های فلسفی باقیمانده از قرن هجدهم را همچنان مسلم فرض می‌کنیم و آن‌ها را با یافته‌های علمی به روز نکرده ایم. البته این کار بسیار سختی هم هست، چرا که شما با مردم سروکار دارید؛ مردمی که نمی‌خواهند این پیام را بشنوند که آن‌ها به حیواناتی قابل هک کردن تبدیل شده اند، که انتخاب‌های آنها، تمایلاتشان، درک آن‌ها از کیستی خود، اینکه موثق‌ترین آرمان هایشان چه هستند واقعا می‌توانند مورد هک شدن و دستکاری قرار بگیرند. اگر بخواهم خلاصه بگویم آمیگدال مغز من ممکن است برای پوتین به کار بیفتد. نمی‌خواهم این را بدانم. نمی‌خواهم این را باورکنم. نه، من یک عامل و مرجع آزاد هستم. اگر از چیزی بترسم دلیلش خود من هستم. نه به این دلیل که کسی این ترس را در ذهنم کاشته است. اگرچیزی را انتخاب می‌کنم، این انتخاب از خواست آزادانه خودم برخاسته است؛ و تو کی هستی که چیز دیگری به من می‌گویی؟
 
تامپسون: خب من یکی که امیدوارم پوتین خیلی زود امیگدال مغز من را به کار بیندازد. ولی این برنامه‌ای جانبی است که در نظر دارم. ولی بر اساس آنچه که در کتاب اولت نوشته ای، به نظر می‌رسد که دیگر این سرنوشت اجتناب ناپذیر است و به جایی رسیده ایم که مغز انسان‌ها را می‌توان هک کرد، جایی که رایانه‌ها و ماشین‌ها و هوش مصنوعی درک بهتری از ما خواهند داشت. ولی این قطعا اجتناب ناپذیر نیست که این وضعیت می‌تواند ما را به سمت پیامد‌های منفی سوق دهد؛ به سمت توطئه‌های یازدهم سپتامبر و دمکراسی ورشکسته. پس آیا ما به نقطه‌ای رسیده ایم که دیگر راه برگشتی از آن نیست؟ و اگر هنوز به آنجا نرسیده ایم، چطور می‌توانیم از آن نقطه بی بازگشت اجتناب کنیم؟ و تصمیمات اساسی که در این مسیر باید اتخاذ شوند چه هستند؟
 
یوآل: خب هیچ چیز آن اجتناب ناپذیر نیست. منظورم این است که خود فناوری به روند تکامل خود ادامه می‌دهد. شما اصلا نمی‌توانید آن را متوقف کنید و مانع از رسیدن به هوش مصنوعی شوید یا تحقیقاتی را که در حوزه بیوفناوری صورت می‌گیرند متوقف کنید. درحال حاضر این دو شانه به شانه هم حرکت می‌کنند. به نظر من هوش مصنوعی اکنون توجه بیش از حدی را به خود جلب کرده و ما باید تمرکز مشابهی معطوف آنچه که در حوزه بیوفناوری در حال رخ دادن است کنیم، چرا که این کار به منظور هک کردن انسان‌ها انجام می‌شود. دراین روند شما به بیولوژی و برخی از مهم‌ترین ابزار‌ها و بینش‌ها نیاز دارید که از علوم رایانه‌ای نمی‌آیند. بلکه از علوم مربوط به مغز می‌آیند؛ و خیلی از کسانی که تمام این الگوریتم‌های حیرت انگیز را طراحی می‌کنند، دارای پیشینه‌ای در روانشناسی و علوم مربوط به مغز هستند، چرا که مغز چیزی است که آن‌ها تلاش دارند آن را هک کنند.
 
گفتگو از: نیکولاس تامپسون (NICHOLAS THOMPSON) روزنامه نگار
 
منبع: فارس

انتهای پیام/
اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.