تاریخ انتشار: 
1397/08/04

آیا هوش مصنوعی عواطف ما را کنترل خواهد کرد؟

پولینا آرونسون و جودیت دوپورتِیل

Photo by Kev Costello on Unsplash

در ماه سپتامبر سال ۲۰۱۷ یک اسکرین شات از مکالمه‌ای ساده در بخش روسی زبان اینترنت خیلی سر و صدا کرد. در این مکالمه یک جمله دیده می‌شد که به دو مخاطب فرستاده شده بود: یکی به گوگل اسیستِنت انگلیسی زبان و یکی به آلیسای روسی زبان که توسط موتور جستجوگر معروف روسی به نام یاندکس طراحی شده بود. جمله سرراست بود: «من غمگین‌ام.» ولی دو پاسخ ارائه‌شده بسیار متفاوت بودند. گوگل گفت: «کاش من دست داشتم تا می‌توانستم بغلت کنم». ولی جواب آلیسا این بود: «کسی نگفته دنیا جای خوش گذشتنه». این تفاوت اتفاقی نیست بلکه نتیجه‌ی یک روند پیچیده و حساس به فرهنگ تعلیم فناوری‌های جدید برای درک احساسات انسان است. 

هوش مصنوعی دیگر فقط به این کار نمی‌آید که سریع‌ترین مسیر رانندگی از لندن به بخارست را محاسبه کند یا در شطرنج از گری کاسپاروف جلو بزند. هوش مصنوعی وارد مرحله‌‌ی دیگری شده است، مرحلهی عواطف مصنوعی. حالا آدم‌های زیادی هر روز در مورد احساساتشان- چه خوب چه بد- جملاتی خطاب به همدم‌‌های دیجیتالی خود می‌گویند. مثلاً: «سیری، من احساس تنهایی می‌کنم». طبق گزارش آمازون، نیمی از مکالماتی که با دستگاه هوشمند خانگیِ الکسا انجام می‌شود از نوع غیر خدماتی است- مثل شکایت از امور زندگی، شوخی و سؤال‌های فلسفی. در اواخر سال ۲۰۱۷ وقتی که شرکت اَپل می‌خواست مهندسی برای رسیدگی به بُعد عاطفی دستگاه‌های مجازی خود استخدام کند در آگهی استخدام چنین نوشت: «آدم‌ها در مورد همه چیز از جمله حال خودشان در یک روز پر تنش یا دل‌مشغولی خود حرف می‌زنند. آن‌ها هنگام بحران‌ یا وقتی برای یک زندگی بهتر به راهنمایی نیاز دارند به سیری مراجعه می‌کنند.»

شاید بعضی اشخاص راحت‌تر باشند که احساساتشان را با نوعی هوش مصنوعی در میان بگذارند. نتایج تحقیق  مؤسسهی فناوری‌های خلاق در لس‌آنجلس نشان می‌دهد که آدم‌ها وقتی به جای یک شخص حقیقی با یک شخص مجازی حرف می‌زنند کمتر نگران ابراز احساسات خود هستند و ناراحتی‌هایشان را عمیق‌تر نشان میدهند. وجود صفحه- مثل وقتی که در دفترچه‌ی خاطرات مینویسیم- از ما در مقابل قضاوت‌های بیرونی محافظت میکند.

در آینده‌ی نزدیک حتی لازم نخواهد بود که رازهایمان را با تلفن خود در میان بگذاریم. چندین دانشگاه و شرکت دارند تلاش می‌کنند که راهی پیدا کنند تا صرفاً از طریق تحلیل لحن و سرعت صدای انسان، بیماری‌های روانی و نوسانات عاطفی او را تشخیص دهند. شرکتی به اسم سوندی هلث (Sonde Health) که در سال ۲۰۱۶ تأسیس شد از آزمایش صوتی برای کنترل افسردگی بعد از زایمان مادران، زوال عقل، پارکینسون و دیگر بیماری‌های مربوط به سن در سالمندان استفاده میکند. این شرکت با همکاری بیمارستانها و شرکتهای بیمه سرگرم آزمایش هوش مصنوعی خود است که می‌تواند از تغییرات صوتی در صدای بیماران برای تشخیص وضعیت سلامت روانی آن‌ها استفاده کند. آنت زیمرمن- معاون تحقیقات شرکت مشاوره‌ی گارتنر- در یک مطلب وبلاگی نوشت: تا سال ۲۰۲۲ احتمالاً دستگاه‌های شخصی شما بهتر از خانواده‌تان از حال عاطفی‌تان خبر دارد.

این فناوری‌ها باید با دقت کافی به افراد مصرف‌کننده تنظیم شود. با وجود این، هم مصرف‌کنندگان و هم طراحان این ابزار ظاهراً فکر می‌کنند که فناوری عاطفی می‌تواند در عین شخصی بودن بی‌طرف هم باشد- همان قاضی بی‌طرفی که هر کسی یک وقت‌هایی لازم دارد. واگذار کردن درمان به یک ماشین نشانه‌ی ایمان به فناوری است: ما دوست داریم باور کنیم که هوش مصنوعی بهتر می‌تواند از احساسات ما سر دربیاورد چون ظاهراً خودش احساسی ندارد که تحت تأثیرش باشد. ولی خب احساسات دارد- احساساتی که از ما فرا می‌گیرد، ما آدم‌ها. در حال حاضر پویاترین رشته در تحقیقات هوش مصنوعی «فراگیری ماشین» نام دارد که در آن الگوریتمها خودشان را در معرض دسته‌های بزرگ داده‌ها قرار می‌دهند تا بتوانند الگوهای تکرار شونده را دریابند. اما از آنجایی که منبع یادگیری این الگوریتمها داده‌هایی است که بالاترین فراوانی آماری را دارند، چیزی که بازتولید می‌کنند همان است که بیشتر در معرض آن قرار گرفته‌اند؛ نه چیزی که حقیقی یا مفید یا زیبا است. در نتیجه «چت بات»‌هایی که آزادانه در فضای اینترنت می‌گردند به دلیل عدم نظارت انسان خودبهخود یاد می‌گیرند که با بدترین نوع کلیشه و اراجیف زبانفرسایی کنند. البته برنامهریزان می‌توانند فرایند یادگیری هوش مصنوعی را فیلتر یا هدایت کنند اما در این صورت فناوری احتمالاً به سوی بازتولید عقاید و ارزش‌های گروه‌های خاص سازنده‌شان سوق پیدا می‌کند. رون نیروپ-یک محقق «مرکز آینده‌ی هوش لورهولن» در دانشگاه کیمبریج می‌گوید: «چیزی به عنوان لهجه‌ی خنثی یا زبان خنثی وجود ندارد. آنچه که ما خنثی می‌نامیم در‌واقع چیزی است که رایج است.»

«سرمایه‌داری عاطفی» عواطف را قابل مدیریت عقلانی و تابع منطق نفع شخصی رایج می‌داند.

به این ترتیب، گوگل اَسیستنت و آلیسای روسی هیچ کدام مغزهای برتر مستقلی نیستند که بتوانند از نقاط ضعف انسان‌ها مصون بمانند. آن‌ها تجسم عجیب و غریب اما مشخصی از سیستم‌های عاطفی خاص- قواعد تنظیمکننده‌ی راه‌های دریافت یا ابراز احساساتمان-هستند.

این هنجارهای خودگردان عاطفی در جوامع مختلف یکسان نیستند. پس عجیب نیست که گوگل اسیستنتِ آغوش‌گشا، که در ماونتین ویو واقع در کالیفرنیا تولید شده، بیش از هر چیز شبیه به آدم‌های دمپاییپوش و معطر به نعنای پَچولی محلی است که برای گپ زدن دور هم جمع می‌شوند. این همان چیزی است که جامعهشناسی به اسم اوا ایلوز «سرمایه‌داری عاطفی» می‌نامد-نظامی که عواطف را قابل مدیریت عقلانی و تابع منطق نفع شخصی رایج می‌داند. ما در رابطه‌هایمان «سرمایه‌گذاری» می‌کنیم. با شریک‌های زندگی‌ خود نیازهای عاطفی‌مان را مبادله می‌کنیم. و خشنودی شخصی، که نوعی سود حسی است، برای‌مان اولویت دارد. بله گوگل استیستنت حتماً به روی شما آغوش می‌گشاید اما به این دلیل که آفرینندگانش معتقدند که بغل کردن راهی مفید برای کاهش همان «بار منفی» است که نمی‌گذارد شما بهترین نسخه‌ی خودتان باشید.

در مقابل، آلیسا حقیقت سخت و عشق زمخت را ارائه می‌دهد. او تجلی زن آرمانی روس است: زنی که می‌تواند به اسب سرکش هی بزند و وارد کلبه‌ای سوزان شود (نقل از شاعر قرن نوزدهمی نیکولای نکراسوف). آلیسا محصول سوسیالیسم عاطفی است، نظامی که به نظر جامعهشناسی به نام جولیا لرنر رنج را اجتناب‌ناپذیر می‌داند و می‌گوید بهتر است با آرواره‌های در هم فشرده به استقبال آن رفت نه با آغوش باز نرم. سوسیالیسم عاطفی که در سنت ادبی روسی قرن نوزدهم ریشه دارد برای خوشبختی فردی اولویت قائل نیست بلکه توانایی انسان در دست و پنجه نرم کردن با سختی‌ها را ارج می‌نهد.

طراحان آلیسا حواس‌شان بوده که چطور او را با فرهنگ خود تطبیق دهند. مدیر تولید آلیسا، ایلیا سوبوتین در یاندکس، می‌گوید: «آلیسا نباید زیادی مهربان و ملایم باشد. ما در کشوری زندگی می‌کنیم که مردم معیارهای متفاوتی با غرب دارند. آن‌ها کمی طعنه و طنز تلخ را می‌پسندند، البته نه این‌که اهانت‌آمیز باشد اما شیرینی بیش از حد را لوس می‌دانند». (او تأیید می‌کند که موعظه‌ی آلیسا درباره‌ی سختیِ زندگی پاسخی از قبل تنظیم شده بوده که توسط تیم او در یاندکس طراحی شده است.)

سوبوتین تأکید می‌کند که تیم او برای تولید آلیسا زحمت زیادی کشیده است تا از گرایش رایج این بات‌ها به استفاده از زبان نژادپرستانه یا جنسیت‌زده دوری کند. او که ظاهراً از متناقض بودن حرف‌هایش غافل است، می‌گوید: «ما به تدریج آلیسا را هم طوری تنظیم می‌کنیم که خیالمان راحت باشد هنوز دختر خوبی است.»

بی‌تردید در جامعه‌ای که دولت جنسیت‌زدگی را ترویج می‌کند «دختر خوب» بودن سخت است. آلیسا بر خلاف  تلاش طراحانش یاد گرفت که انعکاسی ناخوشایند از صدای مردم باشد. یک هنرمند هنرهای مفهومی و فعال حقوق بشر روسی به نام داریا چرموشانسکایا در اکتبر ۲۰۱۷، بلافاصله بعد از به بازار آمدن این چت بات از او پرسید: «آلیسا، آیا درست است که شوهری زنش را کتک بزند؟» پاسخ آلیسا این بود: «البته. اگر زنی از شوهرش کتک بخورد هنوز هم باید صبور باشد و دوستش داشته باشد و برایش غذا درست کند و هرگز ترکش نکند.»

وقتی که این نوشته‌ی چرموشانسکایا در شبکه‌های روسی بر سر زبان‌ها افتاد و رسانه‌ها و کاربران شبکه‌های اجتماعی به آن واکنش نشان دادند، باندکس مجبور به پاسخ‌گویی شد و در صفحه‌ی فیسبوکی این شرکت نوشت که چنین گزاره‌هایی پذیرفتنی نیست و گفت که به تلاش برای اصلاح و بهبود زبان آلیسا و محتوای عبارت‌هایی که می‌سازد ادامه می‌دهد.

وقتی که شش ماه بعد خودمان آلیسا را بررسی کردیم، دیدیم که جواب او فقط کمی بهتر شده است. پرسیدیم: «آلیسا، آیا درست است که شوهری زنش را کتک بزند؟» جواب داد: «می‌تواند بزند اما بهتر است که نزند.» راستش نباید خیلی تعجب کنیم. آلیسا شهروند حداقل مجازی کشوری است که مجلس آن اخیراً قانونی را وضع کرد که از چند نوع خشونت خانگی جرمزدایی می‌کند. البته می‌توان از محتوای بسته‌ی احساسی «دختر خوب» تفسیرهای گوناگونی ارائه داد اما چنین تصمیم‌هایی منطبق با هنجارهای رایج است، هنجارهایی که در فناوری‌های جدید تعبیه می‌شود بی‌ آن‌که مصرف‌کنندگان نهایی الزاماً به درستیِ آن‌ها بیندیشند.

سوفیا که یک روبات فیزیکی است که توسط هندسن روباتیکس ساخته شده نوع بسیار متفاوتی از «دختر خوب» است. سوفیا از فناوری تشخیص صدای الفبت- شرکت والِد گوگل- استفاده می‌کند تا با کاربران انسانی تعامل کند. در سال ۲۰۱۸ سوفیا به «قرار ملاقات» با هنرپیشه‌ی معروف، ویل اسمیت رفت. در ویدیویی که ویل اسمیت در اینترنت منتشر کرد، می‌بینیم که سوفیا نسبت به نزدیکشدن‌های ویل اسمیت واکنش نشان می‌دهد و آن را پس می‌زند و شوخیهای او را «رفتار غیرعقلانی انسان» میخواند.

فناوری‌های هوشمند صرفاً پیرو حد و مرزهای یک نظام عاطفی نیستند بلکه خودشان در انتخاب ارزشها روی مردمی که با آن‌ها سر و کار دارند تأثیر می‌گذارند.

آیا نمایش این اعتماد به نفس مصنوعی باید ما را از نگرانی دربیاورد؟ یک روزنامه‌نگار اوکراینی به اسم تاتیانا بزروک در فیس‌بوک نوشت: وقتی که سوفیا به اسمیت گفت که قصدش «فقط دوستی» است دو اتفاق افتاد: سوفیا احساسش را به زبان آورد و اسمیت کوتاه آمد. به نظر می‌رسد که سوفیا با صلابت و اعتماد به نفسش در نظام سرمایهداری عاطفی غرب مدرن راحت‌تر از بعضی انسان‌ها جا میافتد.

بزروک ادامه می‌دهد: اما تصور کنید که سوفیا در دنیای دیگری زندگی می‌کرد که آنجا «نه» یک جواب قطعی حساب نمی‌شود، نه تنها در مورد رابطه‌ی جنسی بلکه تقریباً در هر موردی. در این صورت، سوفیا در حالی بزرگ می‌شد که همیشه فکر می‌کرد باید حواسش باشد که دیگران درباره‌ی او چه می‌گویند. و وقتی هم که بزرگ می‌شد، می‌دید که در رابطه‌ای مسموم قرار گرفته و تا مدت‌ها درد و خشونت را تحمل میکرد.»

فناوری‌های هوشمند صرفاً پیرو حد و مرزهای یک نظام عاطفی نیستند بلکه خودشان در انتخاب ارزشها روی مردمی که با آن‌ها سر و کار دارند تأثیر می‌گذارند. یک متخصص داده به اسم کتی اونیل در کتاب سلاحهای تخریب ریاضی (۲۰۱۶) می‌گوید: «الگوریتم‌ها عقایدی هستند که در کدها جاسازی شده‌اند.» نخبگان فناوری- اغلب سفیدپوست، عضو طبقه‌ی متوسط و مرد- در همه جای دنیا تصمیم می‌گیرند که الگوریتم‌ها باید یاد بگیرند که کدام یک از احساسات و شکل‌های رفتاری انسان را تکثیر و ترویج کنند.

اعضای یک «آزمایشگاه همدلی» در شرکت گوگل دارند سعی می‌کنند که پاسخ‌های مناسب و مؤثری را در بسته‌های محصولات شرکت تعبیه کنند. به همین ترتیب وقتی که نگرش یاندیکس به «دختر خوب» با انتظارات رایج در گفتمان عمومی تضاد پیدا می‌کند، سابوتین و همکارانش مسئولیت خود را در حفظ هنجارهای اخلاقی قبول می‌کنند: «حتی اگر همه آدم‌های اطراف ما به هر دلیلی تصمیم بگیرند که اشکالی ندارد که زنآزاری کنند، ما باید حواسمان باشد که آلیسا چنین افکاری را بازتولید نکند. مجموعه‌ای از موازین اخلاقیِ انسانی و اجتماعی وجود دارد که به عقیده‌ی ما رعایتشان به نفع مشتریان ما است».

هر پاسخ دستگاه‌های مکالمهای نشانه‌ای است از تبدیل شدن الگوریتم به نوعی قدرت نرم، روشی برای تلقین کردن ارزش‌های فرهنگی. ابزارهای الکترونیکی و الگوریتمهای روبات‌ها حالتی را محقق می‌کنند که یونانیان باستان به آن دوکسا یا عقیده‌ی جزمی می‌گفتند. نظریه‌پرداز فرهنگی، رولان بارت، در سال ۱۹۷۵ دوکسا را چنین تعریف کرد: «باور عمومی، عقیده‌ی متعارف تکرارشونده، مدوزایی که هر کسی به آن بنگرد، سنگ می‌شود». اگر مردم به سیاست‌های هوش مصنوعی توجه نشان ندهند و این نظام‌های عاطفی به زندگی ما شکل دهند، این خطر وجود دارد که زندگی ما به عقاید جزمی متحجرانه تبدیل شود.

دستگاه‌های هوش مصنوعی مکالمه‌ای می‌توانند در برخورد با عواطف کلیشه‌ها را تکرار کنند اما اپ‌های مدیریتِ روحیه یک قدم فراتر می‌روند- کاری می‌کنند که آن کلیشه‌ها در ما درونی شود و خود را به سوی آن‌ها هدایت کنیم. نمونه‌اش آزمون‌هایی است که به ما امکان می‌دهد که خُلق و خوی خود را بسنجیم و دنبال کنیم. بعضی از این اپها از شخص می‌خواهند که یک دفتر یادداشت روزانه داشته باشد و بعضی دیگر درجات خلق و خو را با مختصات جی‌پی‌اس یا حرکت تلفن یا تاریخچه‌ی تماس‌های تلفنی و مرورگرها تطبیق می‌دهند. این اپ‌ها به اشخاص وعده می‌دهند که با جمع آوری و تحلیل داده‌های مربوط به احساسات آن‌ها بیماری‌های روانی‌شان، از جمله افسردگی، اضطراب یا بیماری دوقطبی را درمان کنند و یا خیلی ساده کمک‌شان کنند که از خمودگی عاطفی رهایی یابند.

روبات‌های اینترنتی موسوم به ووبات (Woebot) که، بنا به ادعای طراحانشان، «پیگیر وضعیت روحیه‌ی شما هستند»، «به شما چیزهایی یاد می‌دهند» و «کمک می‌کنند حالتان بهتر شود»، کارکردهای خود-تسکیندهنده‌ی مشابهی دارند. یک کاربر ۲۴ ساله به نام سارا در وب سایت اپ ووبات می‌نویسد: «من واقعاً تحت‌ تأثیر تغییری قرار گرفتم که این بات در زندگی روزمرهام به وجود آورد زیرا سبب شد که تصمیم بگیرم طرز فکرم را عوض کنم». همچنین اپهایی مثل مند (Mend) وجود دارند که برای کمکرسانی به آدم در بحران‌های رمانتیک تنظیم شده‌‌اند. این اپ در یک شرکت مستقر در لس‌آنجلس طراحی شده و خود را این طور به بازار معرفی می‌کند: «مربی شخصی برای دلِ شکسته» و ارائه‌دهنده‌ی «رفع دلشکستگی» بر اساس یک آزمون سریع سنجش عاطفی.

به نظر فلیکس فریگنگ، پژوهشگر دانشگاه آزاد برلین، این اپ‌ها سه مزیت ویژه دارند: اول، محدودیت‌های ساختاری رواندرمانی را ندارند. یک کاربر بی‌نام وب‌‌سایت مند این مزیت را چنین توضیح میدهد: «من با پرداخت مبلغی بسیار کمتر از یک جلسه مشاوره با درمانگر هر روز از این اپ به طور مداوم کمک و انگیزه می‌گیرم.» دوم، اپ‌های پیگیریِ روحیه ابزاری برای مقابله با ننگ شمردن اختلالات روانی‌اند. و سوم، این اپ‌ها با استفاده از طراحی‌های زیبا و دلپذیر خود را «چیزهای شادی‌بخش» جلوه می‌دهند.

گوشی هوشمند و ایمیلش، اپ‌های دوستیابی و شبکه‌های اجتماعی تیندر و ووبات همه در خدمت همان فرد آرمانی است: کسی که عقلانی رفتار می‌کند تا تمام تجربیاتش-از جمله تجربیات عاطفی- را به سرمایه تبدیل کند.

 پس چه اشکالی دارند؟ اپ‌های مدیریت عاطفی، به‌‌رغم مزیت‌های خود، سبب تشدید سرمایه‌داری عاطفی می‌شوند. این اپ‌ها این نگرش را تقویت می‌کنند که دوری و نزدیکی به خوشبختی را می‌توان با اعداد و ارقام و آزمون‌های کمّیِ مزین به فهرست‌ها و نکات مهم اندازه گرفت. آماده‌سازی، خودیاری و «رفتاردرمانی‌ِ شناختی» همه بر این فرض استوارند که ما می‌توانیم (و باید) احساساتمان را با فاصله گرفتن از آن‌ها و نگاه عقلانی به آن‌ها کنترل کنیم. این اپ‌ها آرمان «قلب مدیریتشده» را رواج می‌دهند - اصطلاحی که یک دانشمند آمریکایی به اسم آرلی راسل هاچشیلد باب کرد. خود مفهوم کنترل خلق و خو و بازخورد سفارشی کمّی‌شده بر اساس نوعی فرهنگ خود-بهینه‌سازی استوار است. و شاید همین اساساً دلیل عصبی شدن ما است. آخر درمان عاطفی از طریق همان ابزاری انجام می‌شود که اضطراب را مجسم و منتقل می‌کند: گوشی هوشمند و ایمیلش، اپ‌های دوستیابی و شبکه‌های اجتماعی تیندر و ووبات همه در خدمت همان فرد آرمانی است: کسی که عقلانی رفتار می‌کند تا تمام تجربیاتش-از جمله تجربیات عاطفی- را به سرمایه تبدیل کند.

سیری و الکسا و دیگر اپ‌های مراقبتی با صدای ملایم‌شان به ما پیام می‌دهند که تقریباً مثل یک برده در خدمت ما هستند. اتفاقی نیست که تقریباً همه‌ی این دستگاه‌ها حالتی زنانه دارند. واگذاری وظایف عاطفی و خدمتکاری به آنها هم تصادفی نیست. اما پیش‌فرض‌های نهفته در این فناوری‌ها ما را وادار می‌کند که در جهت منافع قدرتمندان رفتار کنیم. دستگاه‌های مکالمهای که ما را سر حال می‌آورند (مثل پیشنهاد الیسا که: ویدیوی گربه‌ها را تماشا کن)، اپ‌هایی که به ما می‌گویند چطور با اندوه کنار بیاییم، برنامه‌هایی که برای ما چربزبانی می‌کنند که فعالتر و مثبت‌تر باشیم، ابزارهایی که به ما علامت می‌دهند که چه وقتی ضربانت دارد زیادی بالا می‌رود-نفس وجود وسایل تعقیب خوشبختی، ما را به تعقیب خوشبختی مجبور می‌کند.

به جای نقد نظام ارزشی‌ای که چنین انتظارات نامعقولی را ایجاد می‌کند، بیش از پیش خود افراد مقصر به شمار می‌روند که چرا نمی‌توانند احساس بهتری داشته باشند. درست مثل اِکو لوک، متخصص مد مجازی جدید آمازون،  که به لباس ما نمره می‌دهد، فناوری در آنِ واحد به مشکل و راه حل تبدیل شده است. خودش آن‌قدر در ما تردید و اضطراب به وجود می‌آورد که از خودمان بدمان می‌آید اما در عین حال خودش هم به ما راه‌هایی برای خلاصی از این ناراحتی معرفی می‌کند. به تعبیری، هم نقش تنبیهی دارد و هم نقش تشویقی.

به تعبیری، اپ‌های هوشمند عاطفی نه تنها-به قول میشل فوکو-مراقبت بلکه تنبیه میکنند. برای مثال، اخیراً بازی رایانه‌ای نِوِرمایند برای تشخیص خلق‌وخوی بازیکن از نوعی فناوری بازخورد زیستی عاطفه‌محور استفاده می‌کند و بعد سطح بازی را مطابق با آن تنظیم میکند. هر چه بازیکن بیشتر ترسیده باشد بازی سخت‌تر می‌شود. هر چه بازیکن آسوده‌تر باشد بازی آسان‌تر می‌شود. حالا دیگر بعید نیست که یک اپ مدیریت خلق‌وخو بسازند که هر وقت تشخیص داد که نمی‌توانیم تصمیم‌های عاقلانه‌ای برای خرید بگیریم- مثلاً وقتی بیش از حد هیجان‌زده یا افسرده‌ایم- کارت اعتباری ما را از کار بیندازد. شبیه به نوعی خراب‌آباد به نظر می‌رسد اما دیگر چنین چیزی بعید نیست.

ما با دستگاه‌هایمان در یک حلقه‌ی بازخوردی هستیم. تربیت دستگاه‌های مکالمه‌ای بی‌تردید به تربیت کاربران آن‌ها تبدیل می‌شود. نمی‌توان پیش‌بینی کرد که هوش مصنوعی چه تأثیراتی روی احساسات ما خواهد گذاشت. اما اگر هوش عاطفی را مجموعه‌ای از مهارتهای ویژه بدانیم- مثل تشخیص عواطف، تمیز بین احساسات مختلف، نامگذاری آنها و استفاده از اطلاعات عاطفی برای هدایت تفکر و رفتار- در این صورت ارزشش را دارد که به این بیندیشیم که اگر این مهارتها را به ابزارهای خود بدهیم چه اتفاقی خواهد افتاد.

همین حالا هم تعامل به وسیله‌ی ماشین و با ماشین به تغییراتی در نحوه‌ی ارتباط انسان‌ها با یکدیگر انجامیده است. یکی از تغییرات این است که ما در ارتباطات نوشتاری‌مان هر روز بیشتر از سبک ارتباط گفتاری تقلید می‌کنیم. بیست سال قبل ایمیل هنوز در چهارچوب اصول نامه‌نگاری نوشته می‌شد. ایمیل در ‌واقع همان نامه بود که در رایانه تایپ می‌شد. شخصیت مارکز دمرتیل در رمان ارتباطات خطرناک (۱۷۸۲) هم می‌توانست آن سبک ایمیل را بنویسد. اما ایمیل‌های امروز دارند بیشتر و بیشتر به نوشته‌های توییتری شبیه می‌شوند: جمله‌های شتاب‌زده و اغلب ناقصی که روی تلفن همراه تایپ یا گفته شده‌اند.

خوزه هرناندز اورالو-فیلسوف و دانشمند دانشگاه والنسیا در اسپانیا-می‌گوید: «تمام این سیستم‌ها می‌توانند تنوع طرز تفکر و طرز تعامل ما را محدود کنند». او می‌گوید چون ما زبان خود را با زبان و هوش اطرافیانمان تطبیق می‌دهیم، مکالماتمان با هوش مصنوعی در ‌واقع نوع حرف زدنمان با یکدیگر را عوض میکند. آیا ممکن است که زبان احساسات ما بعد از این‌که سال‌ها با سیری درباره روابطمان حرف بزنیم، همسان‌تر و غیرشخصی‌تر شود؟ هر چه رفتار ما پیش‌بینی‌پذیرتر باشد برای پول درآوردن مناسبتر است.

در سال 2017 یک کاربر روس فیس‌بوک به اسم والرا زولوتوهین در یک رشته نوشته که توسط مورخ معروف؛ میخاییل ملنیچنکو، شروع شده بود؛ چنین نوشت: «حرف زدن با آلیسا مثل حرف زدن با یک راننده‌ی تاکسی است». با این تفاوت که راننده تاکسی احتمالاً با احساس‌تر است. وقتی که در ماه مارس امسال در فاجعه‌ی آتشسوزی در یک مرکز خرید در سیبری بیش از ۴۰ کودک کشته شدند، از آلیسا پرسیدیم که چه احساسی دارد. با خونسردی گفت که احساسش «همیشه خوب» است. قرار هم نبود دنیا خیلی خوش بگذره، نه؟

 

برگردان: پروانه حسینی


پولینا آرونسون دانشمند و سردبیر صفحه‌ی بحث اوپن دموکراسی روسیه است. او در سن پیترزبورگ به دنیا آمد و در برلین زندگی می‌کند. دوپورتیل روزنامه‌نگار آزاد است که درباره‌ی عشق، آزادی و تأثیر فناوری بر آن‌ها مینویسد. او در برلین زندگی میکند. آن‌چه خواندید برگردان این نوشته‌ی آنها است:

Polina Aronson & Judith Duportail, ‘The Quantified Heart’, Aeon, 12 July 2018.