23 آوریل 2026

آیا فناوری در خدمت ماست یا ارزش‌های ما را می‌سازد؟

شانون والور ، دیوید رانسیمن

این متن برگرفته از گفت‌وگویی‌ست بین دیوید رانسیمن، استاد علوم سیاسی در دانشگاه کمبریج، و شانون والور، فیلسوف فناوری و استاد دانشگاه ادینبرو که در پادکست تاریخ اندیشه‌ها (The History of Ideas) منتشر شده است. 

این گفتگو به بحث رایج و مهمی در زمینه‌ی فناوری می‌پردازد: آیا فناوری از نظر ارزشی خنثی است و به این ترتیب در ذات خود نه خوب است و نه بد؟

***

یکی از باورهای رایج در حوزه‌ی فناوری که محل بحث بسیار بوده این است که فناوری در ذات خود نه خوب است و نه بد؛ و این نحوه‌ی استفاده انسان‌هاست که به آن ارزش و معنا می‌دهد. شاید در نگاه اول، این فکر بدیهی و منطقی به نظر برسد‌. اما والور استدلال می‌کند که این تصور نه‌تنها ساده‌انگاری است، بلکه می‌تواند پیامدهای خطرناکی برای جامعه داشته باشد.

پرسش درباره‌ی ارزش‌های خوب و بد فناوری موضوع تازه‌ای نیست. فیلسوفان، تاریخ‌نگاران و پژوهشگران فناوری مدت‌هاست که درباره‌ی آن بحث می‌کنند. از یک سو، گروهی فناوری را صرفاً ابزار می‌دانند و استدلالشان این است که فناوری مثل چکش یا چاقو است: ابزاری که می‌توان با آن هم کار مفید کرد، هم کار مخرب. بنابراین ارزش اخلاقی آن به کسی برمی‌گردد که از فناوری استفاده می‌کند. اما از سوی دیگر، بسیاری از پژوهشگران فناوری معتقدند که خود فناوری‌ها ساختارهایی دارند که رفتارها و ارزش‌های ما را شکل می‌دهند؛ اغلب هم بدون آن‌که ما متوجه باشیم.

والور توضیح می‌دهد که این بحث هرگز محدود به فناوری‌های دیجیتال نبوده است. 

در دهه‌های گذشته، حتی پیش از انقلاب دیجیتال نیز این پرسش وجود داشت که آیا فناوری‌ها فقط ابزارند یا اینکه فی‌نفسه نوعی جهت‌گیری و تأثیر دارند. بسیاری از مهندسان تصور می‌کردند که فناوری خنثی است. اما در میان کسانی که فناوری را تخصصی مطالعه می‌کنند، این دیدگاه تقریباً همیشه رد شده است. فیلسوفان، تاریخ‌نگاران فناوری و حتی بسیاری از اقتصاددانان توافق دارند که فناوری‌ها آثار اجتماعی پیچیده‌ای دارند و می‌توانند جامعه را در جهت‌های خاصی سوق دهند. با این حال، این ایده که فناوری خنثی است دوباره با قدرت مطرح می‌شود. دلیل آن هم صرفاً یک بحث فلسفی نیست، بلکه مجموعه‌ای از انگیزه‌های اقتصادی و سیاسی، از جمله منافع عظیم شرکت‌های فناوری است.

یکی از مثال‌های معروف این قضیه، بحث استفاده از سلاح گرم است. در بسیاری از مناظره‌ها درباره‌ی حق داشتن اسلحه در آمریکا، مدافعان آن جمله‌ای مشهور را تکرار می‌کنند که «اسلحه آدم نمی‌کشد، آدم‌ها آدم می‌کشند.» در این استدلال، اسلحه صرفاً ابزاری خنثی تلقی می‌شود، و اگر کسی کشته شود، تقصیر کسی است که از اسلحه استفاده کرده است، نه خود اسلحه. بر اساس همین منطق استدلال می‌کنند که اگر افراد بد اسلحه دارند، افراد خوب هم باید اسلحه داشته باشند تا از خود دفاع کنند.

این استدلال در ظاهر ساده و قانع‌کننده است. اما اگر کمی دقیق‌تر نگاه کنیم، می‌بینیم که فناوری‌ها اغلب شرایطی ایجاد می‌کنند که رفتارهای خاصی را ممکن‌ یا محتمل‌تر می‌کنند. صرفِ وجود یک فناوری می‌تواند ساختارهای اجتماعی و سیاسی را تغییر دهد، حتی اگر آن فناوری به ندرت مورد استفاده قرار گیرد.

نمونه‌ی بارز این وضعیت، سلاح‌های هسته‌ای است. با اختراع بمب اتم، جهان وارد موقعیت کاملاً تازه‌ای شد. بمب اتمی تا به حال فقط دو بار در جنگ به کار رفته، اما صرف وجود آن سیاست جهانی را دگرگون کرده است. دولت‌ها ناچار شده‌اند ساختارهای امنیتی تازه‌ای ایجاد کنند. تصمیم‌گیری درباره‌ی جنگ هسته‌ای در دست حلقه‌های بسیار محدود قدرت قرار گرفته است. در بسیاری موارد تصمیم دولت‌ها حتی از نظارت دموکراتیک خارج شده‌اند، با این استدلال که اگر نظرات متعددی در این تصمیم دخیل باشد و جریان تصمیم‌گیری طولانی شود، ممکن است فرصت واکنش از دست برود.

به این ترتیب، فناوری هسته‌ای ‌که بسیار به ندرت مورد استفاده قرار گرفته، صرفاً با وجود خود ارزش‌ها و ساختارهای سیاسی جهان را تغییر داده است. این نشان می‌دهد که فناوری‌ها می‌توانند بدون اینکه مستقیم استفاده شوند نیز اثرات عمیقی بر جامعه داشته باشند.

والور می‌گوید که در واقع فناوری‌ به دوشکل می‌تواند «سویی ارزشی» داشته باشد. یکی اینکه عمداً با نیت‌ها و ارزش‌های خاصی طراحی شده باشد، مثل سلاح هسته‌ای که اساساً برای نابودی گسترده طراحی شده است. در اینجا می‌توان گفت هدف طراحان در خود فناوری نهفته است.اما شکل دوم پیچیده‌تر است. گاهی فناوری‌ها پیامدهایی دارند که طراحان آن‌ها اصلاً پیش‌بینی نکرده‌اند، و موقعیت‌های جدیدی به وجود می‌آورند که پیش از آن وجود نداشته است. این امکانات تازه، انتخاب‌های اخلاقی جدیدی پیش روی ما می‌گذارند.

مثلاً فناوری سونوگرافی یکی از این موارد است. پیش از اختراع این فناوری، ما نمی‌توانستیم وضعیت جنین را پیش از تولد به این وضوح ببینیم. اما سونوگرافی امکان دیدن جنین و تشخیص برخی بیماری‌ها یا ناهنجاری‌های ژنتیکی را فراهم کرد. در نتیجه، پرسش‌های اخلاقی جدیدی مطرح می‌شود. اگر پزشکان بدانند جنینی به بیماری خاصی مبتلاست که با زندگی سازگار نیست و زندگی کودک بعد از تولد بسیار سخت خواهد شد، چه باید کرد؟ آیا ادامه‌ی بارداری اخلاقی است یا پایان دادن به آن؟

پیش از این فناوری، چنین انتخابی اساساً مطرح نمی‌شد. البته فناوری سونوگرافی نه به قصد ایجاد این بحث‌های اخلاقی، بلکه صرفاً برای اهداف پزشکی پیشرفت کرد و توسعه یافت؛ اما در عمل نوعی تحول در اخلاق پزشکی و تصمیم‌گیری‌های انسانی ایجاد کرد.

همین قضیه در مورد فناوری‌های دیجیتال نیز صادق است. شبکه‌های اجتماعی و پلتفرم‌های اینترنتی امکاناتی ایجاد کرده‌اند که پیش‌تر وجود نداشت. برخی از این پیامدها ناخواسته بوده‌اند. اما در عین حال، بسیاری از ویژگی‌های این فناوری‌ها عمداً به گونه‌ای طراحی شده‌اند که رفتارهای خاصی را در کاربران ایجاد کنند.

برای مثال، بسیاری از پلتفرم‌های شبکه‌های اجتماعی به‌گونه‌ای طراحی می‌شوند که کاربرانِ بیشتری به آن جلب شوند و توجه کاربران را تا حد ممکن حفظ کنند. الگوریتم‌ها محتواهایی را بیشتر به ما نشان می‌دهند که احساسات شدیدتری در ما برمی‌انگیزد، زیرا چنین محتواهایی بهتر می‌تواند ما را درگیر نگه دارد تا وقت بیشتری در شبکه‌های اجتماعی بگذرانیم. این الگوریتم‌ها اغلب پیش‌داوری‌های ما را تقویت می‌کنند و باعث می‌شوند بیشتر در فضای فکری مشابه خودمان بمانیم. در نتیجه، این فناوری نه‌تنها خنثی و آزاد از ارزش‌گذاری نیست، بلکه عملاً به نحوه‌ی فکر کردن و واکنش نشان دادن ما شکل می‌دهد.

والور معتقد است وقتی شرکت‌های فناوری عمداً محصولاتی طراحی می‌کنند که اعتیادآور باشند یا واکنش‌های عاطفی شدید ایجاد کنند، دیگر نمی‌توان ادعا کرد که فناوری خنثی است. این فناوری‌ها دقیقاً برای تأثیر گذاشتن بر رفتار انسان‌ها ساخته شده‌اند.

در کنار این تأثیر، تغییر فرهنگی مهمی نیز رخ داده است. در چند دهه‌ی اخیر، بسیاری از جوامع به این باور رسیده‌اند که پیشرفت انسانی تقریباً به طور کامل از طریق فناوری حاصل می‌شود. البته فناوری یکی از مهم‌ترین ابزارهای پیشرفت بوده است، اما تنها مسیر پیشرفت نیست. پیشرفت اجتماعی می‌تواند از طریق آموزش، سیاست، فرهنگ و همکاری اجتماعی نیز رخ دهد.

با این حال، در گفتمان عمومی امروز اغلب تنها راه‌حل مشکلات را نوآوری فناوری می‌دانند. سیاستمداران مدام درباره‌ی «نوآوری فنی» صحبت می‌کنند، گویی هر فناوری جدیدی لزوماً جهان را بهتر خواهد کرد. این نگرش باعث می‌شود حتی ایده‌هایی که زمانی غیرقابل تصور یا غیراخلاقی به نظر می‌رسیدند، به تدریج عادی شوند.

مثال جالبی از این تغییر نگرش در صنعت فناوری کار شرکت گوگل در مورد هوش مصنوعی است. گوگل در سال ۲۰۱۸مجموعه‌ای از اصول اخلاقی برای توسعه‌ی هوش مصنوعی منتشر کرد. بسیاری از این اصول کلی و قابل تفسیر بودند، اما در دو مورد خط قرمز مشخص و کاملاً روشنی وجود داشت: این‌که هوش مصنوعی را در تولید و استفاده از سلاح‌های مرگبار یا در نظارت مخفیانه و گسترده بر زندگی مردم به کار نخواهد برد.

اما چند سال بعد، گوگل این خطوط قرمز را حذف کرد، و به جای آن اصلی کلی اعلام کرد: این‌که فناوری‌هایی تولید نمی کند که به جامعه آسیب برسانند. اما دیگر تعهد مشخصی درباره سلاح‌ها یا نظارت‌‌های گسترده بر زندگی مردم نداد. البته حتی زمانی هم که این خطوط قرمز وجود داشت، مصادیق آن بسیار محدود بود، مثلاً شرکت‌ها می‌توانستند فناوری‌هایی تولید کنند که بخشی از یک سیستم نظارتی یا نظامی باشند، بدون آن‌که مستقیماً برای آن هدف طراحی شده باشند.

با این حال، حتی از همین خطوط محدود هم عقب‌نشینی کردند، که همین عقب‌نشینی نشانه‌ی مهمی است. به نظر می‌رسد در فرهنگ فناوری امروز حتی ایده‌ی «محدودیت اخلاقی» نیز کم‌رنگ شده است. وقتی باور به خنثی بودن فناوری با این نگرش ترکیب می‌شود، نتیجه خطرناک است. زیرا اگر فناوری خنثی باشد و در عین حال هیچ خط قرمزی هم وجود نداشته باشد، در عمل به شرکت‌ها اجازه داده می‌شود هر چیزی را که بازار می‌خواهد تولید کنند.

در چنین وضعیتی مسئولیت اخلاقی به مصرف‌کنندگان منتقل می‌شود. شرکت‌ها می‌گویند ما فقط فناوری می‌سازیم؛ این دیگران هستند که تصمیم می‌گیرند چگونه از آن استفاده کنند.

والور یادآوری می‌کند که این نوع استدلال پیش‌تر نیز رایج بود اما استدلال مخالف و انتقاد از آن هم کم نبود. تام لرر (Tom Lehre)، طنزپرداز آمریکایی، در یکی از ترانه‌های معروف خود به ون براون (Wernher von Braun) مخترع موشک‌های معروف آلمانی V2، اشاره می‌کند و با کنایه می‌گوید: «من کارم فقط این است که موشک‌ها را به هوا بفرستم؛ این که کجا فرود می‌آیند دیگر کار من نیست.» این حرف، در زمان خود، به عنوان طنزی تند درباره‌ی مسئولیت دانشمندان در جنگ بسیار مشهور شد. چون به خوبی نشان می‌داد که چنین استدلالی نمی‌تواند مسئولیت اخلاقی را از دوش طراحان فناوری بردارد.

اما امروز، برخی شرکت‌های فناوری استدلالی بسیار شبیه به همین منطق را به کار می‌برند، و می‌گویند اگر فناوری ما باعث اعتیاد کاربران شود یا برای نظارت بر مردم استفاده شود یا حتی در سیستم‌های نظامی به کار رود، مسئولیت اصلی نه بر عهده‌ی ما، بلکه بر عهده‌ی کسانی است که از آن استفاده می‌کنند.

بسیاری استدلال می‌کنند که اینترنت و شبکه‌های اجتماعی عامل اصلی قطبی شدن سیاسی در جهان امروز است. اما اگر به تاریخ نگاه کنیم، می‌بینیم که روندهای مشابهی پیش از اینترنت نیز وجود داشته‌اند. برای مثال، ظهور شبکه تلویزیونی فاکس نیوز  Fox Newsدر آمریکا نقش مهمی در شکل دادن به فضای سیاسی داشت.

به هر حال، فناوری‌های مختلف رسانه‌ای در کنار هم عمل کرده‌اند. رادیو، تلویزیون و اینترنت هر کدام به شیوه‌ای خاص بر افکار عمومی تأثیر گذاشته‌اند. اینترنت برخی از روندهایی را که پیش‌تر آغاز شده بود، تقویت کرده و گسترش داده است. 

برای مثال، استفاده از اینترنت اغلب تجربه‌ای فردی است. برخلاف تلویزیون که مردم می‌توانند به صورت جمعی آن را تماشا کنند، از اینترنت بیشتر در تنهایی استفاده می‌کنند. همین ویژگی می‌تواند به انزوا و کاهش تعاملات اجتماعی بینجامد. در عین حال، الگوریتم‌های اینترنتی می‌توانند اطلاعاتی را به کاربران بدهند که باورهای قبلی آن‌ها را تقویت می‌کند.این مثال نشان می‌دهد که ویژگی‌های خود فناوری نیز در شکل دادن به پیامدهای اجتماعی نقش دارند. بنابراین نمی‌توان همه چیز را صرفاً به سوءاستفاده‌ی افراد نسبت داد.

والور پیشنهاد می‌کند که به‌جای بحث تنها درباره‌ی خنثی بودن یا نبودن فناوری، باید در مفهوم «امکانات فناوری» تأمل کنیم. هر فناوری مجموعه‌ای از امکانات و قابلیت‌ها ایجاد می‌کند. برخی از این امکانات از ابتدا در طراحی آن در نظر گرفته شده‌اند و برخی دیگر ناخواسته پدید می‌آیند. اما در هر صورت، این امکانات بر ارزش‌ها و انتخاب‌های ما اثر می‌گذارند.اگر این واقعیت را بپذیریم، آنگاه باید پرسش عمیق‌تری مطرح کنیم: فناوری را برای چه می‌خواهیم؟ نوآوری چه هدفی باید داشته باشد؟

این پرسش بسیار قدیمی است. حتی در فلسفه‌ی یونان باستان نیز درباره‌ی آن بحث شده است. افلاطون استدلال می‌کرد که برخی فناوری‌ها توجه انسان را از حقیقت‌های پایدار دور و به جهان مادی و گذرا محدود می‌کنند. در مقابل، متفکرانی مانند فرانسیس بیکن در دوران جدید فناوری را صرفاً وسیله‌ای برای رفاه انسان می‌دانستند. بیکن استدلال می‌کرد که فناوری می‌تواند زندگی انسان‌ها را نه‌فقط قابل تحمل، بلکه لذت‌بخش کند.

این دو دیدگاه نشان می‌دهند که تصور ما از اهداف فناوری می‌تواند بسیار متفاوت و حتی متناقض باشد.

والور همچنین به جنبه‌‌ی دیگری از فناوری اشاره می‌کند که اغلب در بحث‌های فلسفی نادیده گرفته می‌شود: نقش فناوری در کارهای ساده و روزمره، مثل وسایل خانگی یا مراقبت از یکدیگر در خانه، یا ساختن و تعمیر پل‌ها، نگهداری از زیرساخت‌ها، یا بهبود فضاهای عمومی. این‌ها همه شکل‌هایی از کاربرد فناوری هستند. اما فرهنگ فناوری امروز بیشتر بر ساخت چیزهای «جدید و درخشان» تمرکز و تبلیغ می‌کند. اختراع نرم‌افزارهای ابتکاری و ابزارهای تازه و کارهای خلاق با هوش مصنوعی، خیلی جذاب و پیشرفته به نظر می‌رسد، در حالی که تعمیر جاده‌ها یا نگهداری از مدارس کار چندان درخشان و جذابی به حساب نمی‌آید. در نتیجه‌ این نوع کارها توجه کم‌تری جلب می‌کند و بسیاری از زیرساخت‌های حیاتی به تدریج فرسوده می‌شوند.

والور معتقد است که ما باید رابطه‌ی خودمان با فناوری را از نو تعریف کنیم. فناوری نباید به ما بگوید چه چیزهایی در زندگی ارزشمندند. برعکس، ما باید ارزش‌های خود را مشخص کنیم و سپس فناوری را در خدمت آن‌ها قرار دهیم. اگر نه، تضمینی وجود ندارد که نوآوری و فناوری ما را به آینده‌ای بهتر ببرد. فناوری می‌تواند به همان اندازه که مفید است، خطرناک نیز باشد. به همین دلیل، پرسش مهم این است که ما در کجای کار باید مداخله کنیم: در طراحی فناوری، در بازار، در سیاست یا در فرهنگ؟ والور می‌گوید که این پرسش پاسخ ساده‌ای ندارد، اما برخی تمهیدات می‌توانند تأثیر سریع داشته باشند.

یکی از مهم‌ترین آن‌ها تغییر نظام مسئولیت و انگیزه‌های اقتصادی است. در حال حاضر، بسیاری از شرکت‌ها تقریباً هیچ هزینه‌ای برای تولید فناوری‌های خطرناک نمی‌پردازند. حتی اگر فناوری آن‌ها آسیب‌های اجتماعی ایجاد کند، جریمه‌ها معمولاً آن‌قدر ناچیز است که معمولاً جزئی از هزینه‌های معمول کسب‌وکار حساب می‌شود. 

ولی مثلاً در صنعت داروسازی قوانین بسیار سختی وجود دارد. اگر دارویی باعث مرگ یا آسیب به عده‌ی زیادی شود، شرکت‌ها مبالغ هنگفتی جریمه‌ می‌شوند یا تحت پیگرد قانونی قرار می‌گیرند. والور می‌گوید این شرکت‌های دارویی، اغلب در کار پیدا کردن داروهایی حیاتی‌ است که خطر می‌کنند، و مسئولیت آن را هم می‌پذیرند. اما شرکت‌های فناوری دیجیتال گاهی با طرح‌هایی که حتی ضروری هم نیستند، آسیب ایجاد می‌کنند و مسئولیتی دربرابر آسیب‌ها ندارند. مثلاً، اگر یک چت‌بات باعث تشدید مشکلات روانی کاربران شود یا کاربران را به رفتارهای خطرناک بکشاند، معمولاً پیامد مهمی برای شرکت سازنده ندارد. 

اگر شرکت‌های فناوری‌ بخواهند واقعاً به رفاه مردم اهمیت بدهند، هزینه‌ی خطای آن‌ها باید بسیار بالاتر باشد.

اقدام مؤثر دیگر این است که ما مصرف‌کنندگانِ تولیداتِ فناوری با آثار مخرب‌ آن مقابله کنیم. می‌بینیم که در سال‌های اخیر نوعی مقاومت عمومی در برابر برخی فناوری‌های هوش مصنوعی شکل گرفته است، و بسیاری از مردم با لحن و زبان انتقادی درباره‌ی تولیدات هوش مصنوعی و الگوریتم‌ها حرف می‌زنند. این واکنش‌ها نشان می‌دهند که بخشی از جامعه نسبت به پیامدهای این فناوری‌ها نگران است.

البته والور هشدار می‌دهد که نباید به افراط دیگر نیز سقوط کنیم. همه‌ی انواع هوش مصنوعی یکسان نیستند. برخی کاربردهای آن در زمینه‌های مختلف مثلاً پزشکی یا پژوهش‌های علمی بسیار مفید است. اما بسیاری از نسخه‌های تجاری هوش مصنوعی، به‌ویژه انواعی که متن و تصویر و صدا تولید می‌کنند، هنوز معلوم نیست که فایده و ارزشی بیشتر از هزینه‌های اجتماعی و زیست‌محیطی‌شان داشته باشند

در نهایت، والور بر اهمیت آموزش تأکید می‌کند. یکی از اشتباهات بزرگ در نظام آموزشی مدرن جدا کردن آموزش فنی از آموزش اخلاقی و سیاسی بوده است. مهندسان اغلب یاد می‌گیرند فناوری کنند و بسازند، اما کمتر به این فکر می‌کنند که چه نوع جهانی باید بسازند. در مقابل، دانشجویان علوم انسانی درباره‌ی عدالت و جامعه می‌آموزند، اما اغلب شناخت اندکی از فناوری دارند.

والور معتقد است این دو حوزه باید به هم نزدیک شوند. تنها در این صورت است که می‌توان رهبرانی پرورش داد که هم فناوری را بشناسند و هم بتوانند درباره‌ی پیامدهای اخلاقی و اجتماعی آن تصمیم بگیرند.

در نهایت، پرسش اصلی این است که انسان‌ها چه نوع جهانی می‌خواهند بسازند؟ فناوری می‌تواند ابزاری قدرتمند برای رسیدن به آن جهان باشد، اما تنها در صورتی که ما آگاهانه مسیر آن را تعیین کنیم. اگر نه، فناوری ممکن است به جای آن‌که در خدمت ارزش‌های انسانی باشد، خود به نیرویی تبدیل شود که ارزش‌های ما را شکل می‌دهد.

 

برگردان: فرشته قادری