تاریخ انتشار: 
1401/10/05

سرآغاز تاریخ

ویلیام مک‌اسکیل

daily.jstor

ما در ابتدای تاریخ نوع بشر ایستاده‌ایم. به‌ازای هرکسی که امروز زنده است، ده نفر در گذشته زندگی کرده و درگذشته‌اند. اما اگر گونه‌ی انسان به‌اندازه‌ی میانگین دیگر گونه‌های پستاندار باقی بماند، به‌ازای هر نفری که امروز زندگی می‌کند، هزار نفر در آینده زندگی خواهند کرد. ما مردمان باستان هستیم. در مقایسه با زندگیِ یک شخص معمولی، بشریت امروز از نوزادی که نخستین گام‌های خود را برمی‌دارد، بزرگ‌تر نیست.

گرچه آینده‌ی گونه‌ی ما هنوز ممکن است طولانی باشد اما این امکان نیز هست که زودهنگام پایان یابد. از زمان انتشار نخستین شماره‌ی این نشریه در یک قرن پیش، تحولات بسیاری رخ داده است و از میان آن‌ها عمیق‌ترینشان تواناییِ بشر برای پایان‌دادن به حیات خود است. از تغییرات اقلیمی تا جنگ اتمی، از بیماری‌های همه‌گیرِ مهندسی‌شده تا هوش مصنوعیِ کنترل‌ناپذیر و دیگر فناوری‌های ویران‌کننده که هنوز نمی‌توانیم پیش‌بینی کنیم، تعداد خطراتی که بالقوه می‌توانند پایان نوع بشر را رقم بزنند،‌ نگران‌کننده است.

بیش از سی سال قبل، در اواخر جنگ سرد، بعضی اندیشمندان آینده‌ی پیش رو را بسیار پابرجاتر تصور می‌کردند. ترس از خطر آخرالزمان که در تخیل دوران جنگ سرد بسیار زنده بود، رو به افول بود. پایان کمونیسم چند دهه بعد از شکست فاشیسم در دوران جنگ جهانی دوم، ظاهراً به اصلی‌ترین مناقشات ایدئولوژیک خاتمه داده بود. سرمایه‌داری و دموکراسی بدون مانع رو به گسترش بودند. فرانسیس فوکویاما، نظریه‌پرداز سیاسی، جوامع دنیا را به دو بخش «پساتاریخی» و «تاریخی» تقسیم می‌کرد. برای نمونه، به باور او، جنگ ممکن بود همچنان در بخشی‌های معینی از جهان به‌شکل منازعات قومیتی یا فرقه‌ای ادامه پیدا کند. اما جنگ‌های گسترده به تاریخ پیوسته بودند زیرا تعداد کشورهایی که در سوی دیگر تاریخ قرار داشتند، پیوسته در حال افزایش بود. آینده گستره‌ی کوچکی از انتخاب‌های سیاسی را در بر داشت و صلح نسبی، رفاه و آزادی‌های فزاینده‌ی فردی را نوید می‌داد.

چشم‌انداز آینده‌ای ابدی حالا جای خود را به چشم‌انداز فقدان آینده داده است. ایدئولوژی‌ها هنوز گسل‌های مهمی در ژئوپلیتیک هستند، جهانی‌شدن بازارها تفرقه‌افکن از آب درآمده و جنگ میان ابرقدرت‌ها به‌طور فزاینده محتمل به نظر می‌رسد. اما تهدیدهایی که متوجه آینده هستند، از این‌ها بزرگ‌ترند و امکان نابودی کل گونه‌ی بشری را به همراه دارند. در مواجهه با خطر بالقوه‌ی نابودی، احتمالاً در سال‌های آینده گستره‌ی مباحثات بر سر سیاست و سیاست‌گذاری وسیع‌تر از دهه‌های گذشته خواهد بود. مجادلات بزرگ ایدئولوژیک به‌هیچ‌وجه حل نشده‌اند. در واقع احتمال دارد که با پرسش‌هایی بزرگ‌تر هم مواجه شویم و مجبور شویم که طرح‌های پیشنهادیِ رادیکال‌تری را در نظر بگیریم که با چالش‌های ناشی از تحولات و مخاطرات آینده متناسب‌اند. افق‌های ما باید رو به گشودگی باشد نه بستگی.

یکی از مهم‌ترین این چالش‌ها آن است که نوع بشر چگونه خطرات هوشمندی خود را تحت نظارت خواهد آورد. پیشرفت در تولید سلاح، زیست‌شناسی و علوم رایانه‌ای می‌تواند به پایان گونه‌ی ما بینجامد، چه از طریق سوءاستفاده‌ی عامدانه و چه از طریق تصادفات عمده. جوامع با خطراتی مواجهند که ابعادشان به‌خودی‌خود می‌تواند هر اقدام هماهنگی را فلج کند. اما امروز دولت‌ها می‌توانند و باید گام‌هایی بامعنا بردارند تا اطمینان یابند که گونه‌ی بشر بقا خواهد یافت،‌ بی‌آنکه مزایای پیشرفت فناوری را کنار بگذارند. در واقع، جهان هم‌اینک نیز برای غلبه بر چند خطر سهمگین نیازمند نوآوری است: بشر باید بتواند انرژی پاک تولید و ذخیره کند؛ بیماری‌های تازه را وقتی هنوز قابل کنترل هستند، تشخیص دهد؛ و صلح میان ابرقدرت‌ها را حفظ کند، بی‌آنکه این کار صرفاً بر توازن شکننده‌ی ناشی از تهدید‌های متقابل اتمی متکی باشد.

وضعیت کنونی فناوری و نهادهای مرتبط به‌هیچ‌وجه امنیت‌بخش نیست بلکه برعکس خطرناک و شکننده است و جوامع باید راه گریزی از آن بیابند. برای ایجاد این راه گریز دولت‌ها باید از خطراتی که با آن مواجهند آگاه‌تر باشند و سازوکارهای نهادین مستحکمی برای مدیریت آن‌ها ایجاد کنند. این از جمله به‌معنای آمادگی برای بدترین شرایط ممکن در حیطه‌های مرتبطِ سیاست‌گذاری و پذیرش ایده‌ی «تنظیم سرعت نسبی پیشرفت فناوری‌ها» است، به این معنا که پیشرفت فناوری‌هایی را که می‌توانند پیامدهای بالقوه‌ی خطرناکی داشته باشند، کاهش دهند (مانند تحقیقات زیست‌شناختی که می‌تواند به سلاح تبدیل شود) و درعین‌حال سرمایه‌گذاری و شتاب بیشتری به فناوری‌هایی بدهند که می‌تواند این خطرات را کاهش دهد، مانند نظارت بر آب پسماند برای تشخیص ارگانیسم‌های بیماری‌زای جدید.

بزرگ‌ترین تغییر لازم، تغییر در زاویه‌ی نگاه است. فوکویاما آینده را با اندکی اندوه می‌نگریست، آینده‌ای خاکستری و گستره‌ای بی‌ماجرا؛ موقعیتی برای تکنوکرات‌ها. او در سال ۱۹۸۹ چنین نوشت: «پایان تاریخ دورانی بسیار غم‌انگیز خواهد بود» که در آن «شجاعت، دلیری، تخیل و آرمان‌خواهی جای خود را به حسابگری اقتصادی، حل بی‌پایان مشکلات تکنیکی، دغدغه‌های زیست‌محیطی و تأمین تقاضاهای پیچیده‌ی مصرف‌کنندگان خواهد داد». اما اینجا در ابتدای تاریخ، این چهارراه حساس در داستان زندگی بشر، نیازمند شجاعت و تخیل هستیم تا بتوانیم با چالش‌های متنوع پیش رو مواجه شویم. برخلاف پیش‌بینی فوکویاما، افق سیاسی به خطی واحد تقلیل پیدا نکرده است. تحولات عظیم اقتصادی، اجتماعی و سیاسی هنوز امکان‌پذیر و لازم‌اند. اگر خردمندانه عمل کنیم، قرن پیش رو با پذیرش دِین ما به آیندگان تعریف خواهد شد و نوه‌های نوه‌های ما با افتخار و سپاس به ما خواهند نگریست. اگر خراب‌کاری کنیم، شاید آن‌ها هرگز چشم به جهان نگشایند.

 

آیندگان

سوابق ثبت‌شده در فسیل‌ها نشان می‌دهد که گونه‌های پستاندار به‌طور متوسط ۱میلیون سال زندگی می‌کنند. بر این مقیاس، تقریباً ۷۰۰هزار سال از زندگی گونه‌ی ما باقی است. در طول این زمان، حتی اگر تنها یک‌دهم جمعیت کنونی زمین روی این کره‌ زندگی کنند، تعداد کسانی که در آینده به دنیا خواهند آمد، به رقم شگفت‌انگیز ۱۰تریلیون نفر خواهد رسید.

علاوه بر این، گونه‌ی ما تنها یکی از پستانداران معمولی نیست و کاملاً ممکن است که انسان‌ها بسیار طولانی‌تر از هم‌قطاران خود باقی بمانند. اگر تا زمانی که بسط خورشید زمین را بسوزاند دوام بیاوریم، نوع بشر صدهامیلیون سال دیگر ادامه خواهد یافت. فاصله‌ی زمانی ما با آخرین نوادگانمان بیشتر از فاصله‌ی ما با نخستین دایناسورها خواهد بود. و اگر روزی در فضا سکونت کنیم (چیزی که در فاصله‌ی هزاران سال دیگر کاملاً قابل تصور است) زندگی هوشمند زمینی می‌تواند تا زمان سوختن آخرین ستاره‌ها در ده‌هاتریلیون سال دیگر باقی بماند.

فکرکردن به درازای بالقوه‌ی آینده‌ی بشر، ابداً نوعی بازی بیهوده با اعداد درک‌ناپذیر نیست، بلکه برای فهم میزان سود و زیان احتمالیِ تصمیم‌های ما ضروری است. کارهای امروز ما می‌تواند مشخص کند که آیا تریلیون‌ها نواده‌ی ما زندگی خواهند کرد یا نه (و آیا با فقر یا بی‌نیازی، جنگ یا صلح، بردگی یا آزادی مواجه خواهند بود)؛ امری که مسئولیت بی‌اندازه‌ای را بر دوش ما می‌گذارد. پیامدهای عمیق چنین تغییری در زاویه‌ی نگاه را می‌توان در آزمایش‌های چشمگیری مشاهده کرد که در یک شهر کوچک ژاپنی به نام یابابا به انجام رسیده است. قبل از گفت‌وگو درباره‌ی سیاست‌گذاری‌های شهری، از نیمی از شرکت‌کنندگان خواسته شد که لباس‌های نمایشی بپوشند و تصور کنند که مردم آینده و نمایندگان منافع نوه‌های شهروندان کنونی هستند. پژوهشگران نه‌تنها «تضادی آشکار در شیوه‌های مشورت و اولویت‌ها میان گروه‌های مختلف» مشاهده کردند بلکه دغدغه‌ی نسل‌های آینده حالتی مسری داشتند. بیش از نیمی از اقداماتی که درمورد آن‌ها توافق جمعی حاصل شد، پیشنهاد گروه نوه‌های خیالی بودند.

 

داستان بشر ممکن است پیش از آنکه واقعاً شروع شود، پایان یابد

دوراندیشی نشان می‌دهد که جوامع هنوز می‌توانند دستاوردهای بیشتری داشته باشند. تنها پانصد سال پیش، غیرقابل‌تصور بود که روزی درآمد مردم هرچند نسل یک بار دو برابر شود، اغلب مردم آن‌قدر زندگی کنند که بزرگ‌شدن نوه‌های خود را ببینند و کشورهای پیشرفته‌ی جهان جوامعی سکولار داشته باشند که رهبرانشان در انتخابات‌ آزاد تعیین می‌شوند. کشورهایی که اکنون برای شهروندانشان بسیار پایدار به نظر می‌رسند، ممکن است بیش از چند قرن دوام نیاورند. هیچ‌یک از شیوه‌های متنوع سازمان‌دهی اجتماعی در طول تاریخ از ابتدا شکل کاملی نداشته‌اند. تمرکز بر روز‌ها، ماه‌ها یا سال‌ها، امکان تحول بنیادین در بلندمدت را از نظر دور نگاه می‌دارد.

این واقعیت که نوع بشر تنها دوران خردسالی خود را طی می‌کند، توجه ما را بیش‌ازپیش بر این نکته متمرکز می‌کند که مرگ نابهنگام آن چقدر غم‌انگیز خواهد بود. هنوز زندگی‌های بسیاری باید زیسته شوند اما در خردسالی، توجه ما به‌سرعت از چیزی به چیز دیگر می‌پرد و ناآگاه از اینکه بعضی از کارهایمان ممکن است ما را در خطری جدی قرار دهد، به این‌طرف و آن‌طرف تِلو‌تِلو می‌خوریم. توانایی‌های ما هر روز افزایش می‌یابد اما خودآگاهی و خردمندی‌مان عقب می‌افتد. داستان ما ممکن است پیش از آنکه واقعاً شروع شود، پایان یابد.

 

پایان تاریخ را چگونه ممکن است رقم زنیم؟

برخلاف «پایان تاریخ» فوکویاما، دیگر ناظران مسائل بین‌المللی بر معنای تحت‌اللفظی‌تر این عبارت بیشتر تمرکز کرده‌اند: این امکان بالقوه که بشر به‌کلی نابود شود. چنین دیدگاه‌هایی به‌ویژه در ابتدای جنگ سرد رواج داشت، اندکی بعد از آنکه دانشمندان اتمی جهشی بزرگ در تواناییِ ویرانگری‌ِ بشر ایجاد کردند. همان‌گونه که وینستون چرچیل، دولتمرد انگلیسی، در سال ۱۹۴۶ به‌شکلی گویا گفته: «عصر حجر ممکن است بر بال‌های صیقل‌خورده‌ی علم بازگردد و آنچه اکنون منبع مواهب مادی بی‌اندازه‌ای برای بشر است، ممکن است عاقبت باعث نابودی کامل آن شود.» چند سال بعد از آن، رئیس‌جمهور آمریکا، دوایت آیزنهاور، در نخستین سخنرانی دوران ریاست‌جمهوری‌اش این دغدغه‌ها را تکرار کرد و از جمله هشدار داد: «ظاهراً علم آماده است که آخرین هدیه‌ی خود را به ما بدهد، یعنی قدرت نابودی زندگی بشر بر روی این کره‌ی خاکی را.»

تاریخ نوع بشر آکنده از فجایع است، از همه‌گیری طاعون تا برده‌داری و استعمار. اما به‌جز چند حادثه‌ی طبیعیِ بسیار نامحتمل، مانند فعال‌شدن آتش‌فشانی بسیار بزرگ یا برخورد شهاب‌سنگ‌ها با زمین، هیچ سازوکار معقولی وجود نداشته است که بتواند تمام نوع بشر را نابود کند. در کتاب پرتگاه، فیلسوف آکسفوردی، توبی اُورد، تخمین می‌زند که حتی با پذیرش همه‌ی پیش‌فرض‌های بدبینانه، خطر انقراض طبیعی درمجموع به بشر دست‌کم حدود ۱۰۰هزار سال زمان خواهد داد.

نگرانی‌های جدی‌ درباره‌ی «فاجعه‌ی نابود‌کننده» که اُورد آن را نابودیِ دائمیِ تواناییِ بالقوه‌ی نوع بشر تعریف می‌کند، عمدتاً از نیمه‌ی دوم قرن بیستم و هم‌زمان با شتاب‌‌گرفتن پیشرفت فناوری، به وجود آمد. لرد مارتین ریس، مدیر سابق انجمن سلطنتی، در سال ۲۰۰۳ نوشت که امکان بقای نوع بشر در این قرن «بیش از ۵۰درصد نیست». اُورد تخمین می‌زند که احتمال آنکه نوع بشر خود را نابود یا به‌طور دائمی روند تمدن را مخدوش کند، در صد سال آینده یک از شش است. حق با هریک از این دو نفر باشد، محتمل‌ترین علت جوان‌مرگ‌‌شدن هر آمریکایی‌ای که امروز به دنیا می‌آید، وقوع فاجعه‌ای در ابعاد ویرانیِ تمدن است.

 

تا همین اواخر، راه‌های اندکی وجود داشت که نوع بشر به کلی نابود شود

سلاح‌های اتمی چند ویژگی اصلی دارند که ممکن است خصیصه‌ی خطرات ناشی از فناوری‌های آینده نیز باشد. وقتی این سلاح‌ها در اواسط قرن بیستم به وجود آمدند، جهشی ناگهانی در توانمندی‌های ویرانگر بشر پدید آوردند: بمب اتم هزار برابر قوی‌تر از همه‌ی مواد منفجره‌ی قبل از کشف اتم بود؛ بمب‌های هیدروژنی هم هزار بار از بمب اتم قوی‌ترند. در مقایسه با سرعت افزایش قدرت ویرانگری سلاح‌ها در عصر پیشااتمی، پیشرفت چند دهه معادل ۱۰هزار سال بود.

این پیشرفت‌ها را مشکل‌ می‌شد پیش‌بینی کرد: ارنست رادرفورد، فیزیک‌دان برجسته، ایده‌ی انرژی اتمی را حتی در سال ۱۹۳۳، «توهم»‌ می‌خواند و آن را رد می‌کرد، یعنی یک سال پیش از آنکه لئو استیلارد، فیزیک‌دان مشهور دیگر، ایده‌ی ساختن یک رآکتور مبتنی بر شکافت هسته‌ای را به ثبت رساند. وقتی بمب‌های اتمی از راه رسیدند، ویرانی ناشی از آن‌ها می‌توانست نتیجه‌ی تصمیمی عامدانه باشد، مثل زمانی که در سال ۱۹۵۸ در میانه‌ی بحران تنگه‌ی تایوان (Taiwan Strait crisis) ژنرال‌های آمریکایی پیشنهاد دادند که حمله‌ی اتمی پیش‌دستانه‌ای به چین انجام شود؛ یا ممکن بود تصادفی باشد، مانند آنچه در تاریخچه‌ی هراس‌انگیز شلیک‌‌های اشتباه در سیستم‌های اخطاردهنده‌ی اولیه ثبت شده است. حتی بدتر از آن، اقداماتی که هدفشان دفاع در برابر حملات عامدانه‌ی اتمی بود، اغلب به قیمت افزایش این خطر تمام می‌شد که آخرالزمانی اتمی به‌شکل تصادفی رخ دهد. برای نمونه، سیستم هشدار هوایی ایالات متحده را در نظر بگیرید که بر ایده‌ی شلیک بر اساس هشدار مبتنی بود، یا به سیستم «دست مرگ» در اتحاد جماهیر شوروی فکر کنید که تضمین می‌کرد اگر مسکو هدف حمله‌ی اتمی قرار گیرد، به‌طور خودکار حمله‌ی اتمی متقابل با تمام قوا آغاز شود. پایان جنگ سرد در این محاسبات کشنده تفاوت بنیادینی ایجاد نکرد و قدرت‌های اتمی هنوز در کانون سیاست‌گذاری‌های خود، توازن امنیتی و آمادگیِ حمله را حفظ کرده‌اند. فناوری‌های آینده ممکن است حتی معامله‌های خطرناک‌تری را میان امنیت و تواناییِ حمله در پی داشته باشد.

 

آخرالزمانی نزدیک؟

اما سلاح‌های اتمی تنها خطری نیستند که با آن مواجهیم. بسیاری از فناوری‌های آینده می‌توانند ویرانگرتر از آن‌ها باشند، آسان‌تر به دست گستره‌ی وسیع‌تری از کنشگران بیفتند، کاربرد‌های دوگانه‌ی نگران‌کننده‌تری داشته باشند یا برای آغاز انقراض گونه‌ی ما به گام‌های اشتباه کمتری نیاز داشته باشند و بنابراین، کنترل آن‌ها بسیار مشکل‌تر خواهد بود. گزارش اخیر شورای امنیت ملی آمریکا، هوش مصنوعیِ کنترل‌نشدنی، بیماری‌های همه‌گیرِ مهندسی‌شده و سلاح‌های مبتنی بر فناوری نانو را علاوه بر جنگ اتمی از جمله عوامل خطر نابودی نوع بشر قلمداد می‌کند: «خطراتی که می‌تواند به زندگی در مقیاسی جهانی آسیب بزند» و «تصور و درک مقیاس و گستره‌ی بالقوه‌ی آن‌ها، برای ما چالش‌انگیز است».

برای نمونه، همه‌گیری‌های مهندسی‌شده را در نظر بگیرید. پیشرفت در فناوریِ زیستی بسیار سریع بوده و هزینه‌های اصلی آن‌ها، مثلاً در مورد ساخت زنجیره‌های ژنتیکی، به‌سرعت کاهش پیدا کرده است. پیشرفت‌های بیشتر مزایای بسیاری را نوید می‌دهند، مانند درمان‌ ژنتیکیِ بیماری‌هایی که اکنون قابل درمان نیستند. اما کاربردهای دوگانه‌ی این فناوری به‌شدت نگران کننده‌اند: برخی از روش‌هایی که در پژوهش‌های پزشکی به کار می‌روند، در اصل، می‌توانند برای شناخت یا ایجاد ارگانیسم‌های بیماری‌زایی استفاده شوند که از هر نمونه‌ی مشابه دیگری در طبیعت مسری‌تر و کشنده‌ترند. این اتفاق ممکن است در یک برنامه‌ی علمیِ باز اتفاق بیفتد (که در آن گاهی دانشمندان عوامل بیماری‌زا را تغییر می‌دهند تا راه مقابله با آن‌ها را فرابگیرند) یا نتیجه‌ی نیت‌های شرورانه‌ی تروریست‌ها یا برنامه‌های سلاح‌های زیستیِ دولت‌ها باشد (چنین برنامه‌هایی به تاریخ نپیوسته‌اند: گزارش یک وزارتخانه در ایالات متحده به این نتیجه رسید که کره‌ی شمالی و روسیه برنامه‌هایی تهاجمی برای تولید سلاح‌های زیستی دارند). پژوهش‌هایی که با انگیزه‌ی خدمت به جوامع منتشر می‌شوند، می‌توانند از سوی کنشگران بدکار مورد سوءاستفاده قرار گیرند، شاید به روش‌هایی که مؤلفان اولیه‌ی این پژوهش‌ها هرگز تصور نمی‌کردند.

عکس: کاسه‌ی سر و استخوان فک گونه‌های اولیه‌ی انسانی در موزه‌ی تکامل بشر در بورخس، اسپانیا، ژوئیه‌ی ۲۰۱۰


برخلاف سلاح‌های هسته‌ای، باکتری‌ها و ویروس‌ها می‌توانند خود را تکثیر کنند. همان‌طور که همه‌گیری کووید‌-‌۱۹ به‌شکلی غم‌انگیز نشان داد، وقتی ارگانیسم بیماری‌زای جدید انسانی را بیمار کند، ممکن است دیگر راه نجاتی وجود نداشته باشد. و گرچه تنها نه کشور تاکنون سلاح اتمی دارند (و روسیه و ایالات متحده بیش از ۹۰درصد از کلاهک‌ها را در اختیار دارند) اما هزاران آزمایشگاه زیست‌شناسی در دنیا وجود دارد. یک دوجین از این آزمایشگاه‌ها (که در پنج قاره پراکنده‌اند) از مجوزهای لازم برای آزمایش روی خطرناک‌ترین ارگانیسم‌های بیماری‌زا در جهان برخوردارند.

بدتر از این، سوابق مشکلات ایمنی در پژوهش‌های زیست‌شناختی حاکی از ناامنی شدیدتر نسبت به سلاح‌های اتمی است. در سال ۲۰۰۷، بیماری پا و دهان که به‌سرعت از طریق جمعیت‌های دامی گسترش پیدا می‌کند و به‌راحتی می‌تواند میلیون‌ها دلار آسیب اقتصادی به بار آورد، نه‌تنها یک بار بلکه دو بار از یک آزمایشگاه بریتانیایی در فاصله‌ی چند هفته نشت کرد، به‌رغم اینکه در این فاصله دولت برای حل مشکل مداخله کرده بود. و نشت‌های آزمایشگاهی تاکنون به مرگ انسان‌ها نیز انجامیده‌اند، مانند زمانی که سیاه‌زخمِ جنگ‌افزار شده، از کارخانه‌ای مرتبط با برنامه‌ی تسلیحات زیستیِ شوروی در سوردلوسک در سال ۱۹۷۹ به بیرون نشت کرد و ده‌ها نفر را کشت. شاید از همه‌ی این‌ها نگران‌کننده‌تر شواهدی ژنتیکی باشد که نشان می‌دهد سرآغاز همه‌گیریِ «آنفولانزای روسی» در سال ۱۹۷۷ احتمالاً آزمایش‌هایی انسانی است که روی زنجیره‌ی ژنتیکیِ آنفولانزای شایع در دهه‌ی ۱۹۵۰ انجام شده بود. تقریباً ۷۰۰هزار نفر بر اثر ابتلا به این بیماری درگذشتند.

درمجموع، تنها در آزمایشگاه‌های آمریکا تاکنون صدها بار بیماری‌های عفونی نشت کرده‌اند، یعنی یک مورد در هر ۲۵۰ نفر / سال از کار آزمایشگاهی. از آنجا که ده‌ها آزمایشگاه با درجه‌ی امنیتی بالا در جهان وجود دارد و در هریک از آن‌ها ده‌ها و شاید حتی صدها دانشمند و کارمند فعالیت می‌کنند، این درصد احتمال وقوع خطا به‌معنای نشت بیماری‌های عفونیِ متعدد در هر سال است. جوامع باید این احتمال را به میزان چشمگیری کاهش دهند. اگر این آزمایشگاه‌ها سرگرم دست‌کاریِ ارگانیسم‌های بیماری‌زایی باشند که می‌تواند به انقراض بشر بینجامد، پایان نابهنگام بشر، قطعی و تنها نیازمند گذر زمان خواهد بود.

 

حکمرانیِ در پایان جهان

به‌رغم این سطح فزاینده از خطرات، هنوز اصلاً مشخص نیست که آیا نوع بشر گام‌های لازم را برای حفاظت از خود خواهد برداشت یا نه. در واقع، موانع فراوانی در برابر کاهش کافیِ مخاطرات وجود دارد.

بنیادی‌ترین موضوع در این رابطه را به‌شکلی دردناک در کارزارهای مرتبط با دیپلماسیِ اقلیمی در سال‌های اخیر دیده‌ایم. برخی کشورها بیش از بقیه از سوزاندن سوخت‌های فسیلی سود می‌برند اما دیگر کشورها و نسل‌های بعدی بیشترین هزینه‌های آن را خواهند پرداخت. به همین ترتیب، انجام پژوهش‌های زیست‌شناختیِ پرخطر به امید ساختن داروهایی قابل‌ثبت انجام می‌شود که می‌تواند اقتصاد و جایگاه بعضی کشورها را ارتقا دهد اما اگر ارگانیسم‌های ‌بیماری‌زا به‌طور تصادفی در آن کشور نشت کند، شیوع آن محدود به داخل مرزهای میان کشورها نخواهد بود. به زبان اقتصاد، ایجاد خطر برای آینده برای اقتصاد‌ها زیانی بیرونی است، درحالی‌که اقدامات برای کاهش خطر مانند ایجاد یک سیستم هشدارِ زودهنگام برای بیماری‌های جدید، نوعی خیرِ عمومیِ جهانی است. (توجه کنید که چقدر برای کل دنیا سودمند بود اگر کووید-۱۹ مانند سارس در سال‌های ۲۰۰۲ تا ۲۰۰۴ به تعداد کمی از کشورها محدود و سپس ریشه‌کن می‌شد.) این دقیقاً آن‌گونه خیری است که نه بازار آن را به‌طور خودکار تأمین خواهد کرد و نه نظام بین‌المللی زیرا کشورها انگیزه‌هایی قوی دارند که از مزایای حاصل از زیان سایر کشورها به‌طور مجانی سود ببرند.

بشر برای فرار از این فاجعه‌ی ساختاری چند راه دارد. برای کاهش نگرانی‌های مرتبط با شکست در مبارزه با خطرات امنیتی، کشورها می‌توانند توافق‌نامه‌هایی وضع کنند که بر اساس آن همگی از توسعه‌ی فناوری‌های فوق‌العاده خطرناکی مانند سلاح‌های زیستی خودداری کنند. راه دیگر، ایجاد اتحادی است میان کشورهای داوطلب تا بتوانند آنچه ویلیام نوردهاوس، اقتصاد‌دان، آن را «انجمن کشورها» می‌خواند، تشکیل دهند. اعضای چنین انجمنی می‌توانند در جهت تأمین خیر عمومیِ جهانی که ترویج آن هدف این نهاد است، با یکدیگر همکاری کنند. درعین‌حال، آن‌ها می‌توانند به تأمین مزایایی برای یکدیگر متعهد شوند (مثلاً کمک به پیشرفت اقتصادی یا صلح)، درحالی‌که هزینه‌هایی را (از طریق تمهیداتی مانند گمرک) بر کشورهای غیر عضو تحمیل و با این کار آن‌ها را به عضویت در این انجمن تشویق کنند. برای نمونه، می‌توان انجمن‌هایی برای تعیین معیارهای امنیتی درمورد سامانه‌های هوش مصنوعی یا ممنوعیت موقت پژوهش‌های خطرناک زیست‌شناختی تأسیس کرد.

 

برای فرار از این فاجعه‌ی ساختاری، راههایی وجود دارد

متأسفانه ظهور دوباره‌ی رقابت میان ابرقدرت‌ها امکان موفقیت چنین همکاری‌های جهانی‌ای را در سایه‌ای از ابهام فرو برده است. از آن بدتر، تنش‌های ژئوپلیتیک می‌تواند کشورها را به پذیرش سطوح بالاتری از خطر برای جهان (و خودشان) وادار کند، به‌ویژه اگر چنین پذیرشی را قماری ببینند که در صورت برنده‌شدن در آن می‌توانند منافع امنیتی خود را بهتر تأمین کنند (در هشت ‌سالی که ایالات متحده بمب‌افکن‌های خود را به‌طور دائمی در آسمان نگه داشت، پنج هواپیما درحالی‌که حامل بمب‌های اتمی بودند، سقوط کردند). و حتی اگر برنامه‌ی سلاح‌های زیستیِ کشوری ارگانیسم‌های بیماری‌زا با خطر انقراض بشر را آزمایش کند (شاید با این هدف بی‌پروا که عامل منع‌کننده‌ی نهایی را در دست داشته باشند)، حادثه‌ی بعدی در یک آزمایشگاه می‌تواند همه‌گیریِ جهانی‌ای به‌مراتب بدتر از کووید-۱۹ را شیوع دهد.

در بدترین حالت، ابرقدرت‌ها می‌توانند در جدال خود برای تسلط جهانی به جنگ مستقیم روی آورند. برای کسانی که در غرب و بعد از جنگ جهانی دوم به دنیا آمده‌اند، این تصور ممکن است دور از انتظار به نظر برسد. استیون پارکر، روان‌شناس، این ادعا را ترویج کرد که خشونت (از جمله خشونت میان کشور‌ها) مدت‌هاست که محدود شده است. اما تحلیل‌های بعدیِ بِر براومولر، دانشمند علوم سیاسی، و همکاران او نشان داد که موضوع به این سادگی نیست. پژوهشگران گفته‌اند که شدت برخوردها از قانونی به نام «قانون قدرت» تبعیت می‌کند، به این معنا که بعد از وقفه‌ای نسبتاً صلح‌آمیز، کاملاً ممکن است که دوباره جنگ به‌شکلی حتی مرگ‌بارترآغاز شود. محاسبات آرون کلاوست، دانشمند علوم رایانه‌ای، نشان داده که «صلح بلندمدت» که پس از جنگ جهانی دوم به وجود آمده، باید یک قرن دیگر ادامه یابد تا بتوان آن را شاهدی پذیرفتنی مبنی بر کاهش واقعاً بلندمدتِ وقوع جنگ به شمار آورد. براومولر تأیید می‌کند که «بعید نیست که جنگی دیگر و مرگ‌بارتر از دو جنگ جهانی گذشته در طول زندگی ما اتفاق بیفتد» و در بخش پایانیِ کتاب خود اشاره می‌کند که «برای مدتی می‌خواسته بنویسد: "ما همه خواهیم مرد" و سخن را در همان‌جا خاتمه دهد».

کاهش خطر جنگ جهانی سوم هم‌زمان با دستیابی به نوآوری‌هایی بی‌سابقه در شیوه‌ی حکمرانیِ بین‌المللی، هدفی دشوار است. اما خوشمان بیاید یا نیاید، این چالشی است که با آن مواجهیم.

 

نوآوری برای بقا

یک واکنش به چالش سهمگین پیش رو، عقب‌نشینی است. به باور بعضی، اگر به‌سختی می‌توان ظهور فناوری‌های جدید را به‌شکلی امن به پیش برد، اصلاً چرا اختراع آن‌ها را کنار نگذاریم؟ اعضای جنبش «مهار رشد» دقیقاً همین موضع را دارند و علیه رشد اقتصادی فریاد می‌زنند و پیشرفت فناوری را مهم‌ترین عامل ازخودبیگانگی، ویرانیِ زیست‌محیطی و همه‌نوع آسیب‌های دیگر اعلام می‌کنند. در سال ۲۰۰۹، ۱۱هزار دانشمند از بیش از ۱۵۰ کشور نامه‌ی سرگشاده‌ای امضا کردند که خواهان «توقف رشد» جمعیت جهان «و در بهترین حالت، کاهش تدریجی آن» بود و می‌خواستند که کشورها «افزایش تولید خالص داخلی» را از اولویت‌های خود کنار گذارند.

این واکنش با وجود جذابیت شهودی‌اش، غیرواقع‌بینانه و خطرناک است. غیرواقع‌بینانه است چون به وابستگیِ متقابل کشورها در نظام بین‌المللی توجه نمی‌کند. حتی اگر کشورهای جهان گرد هم آیند و به‌طور موقت نوآوری را متوقف کنند، دیر یا زود کسی دوباره توسعه‌ی فناوری‌های پیشرفته را آغاز خواهد کرد.

 

بشر نباید به سرنوشت ایکاروس دچار شود اما بااین‌حال باید پرواز کند

هرچه باشد، توقف در پیشرفت فناوری درهرحال مطلوب نیست. برای درک دلیل این موضوع، توجه کنید که فناوری‌های جدید می‌توانند هم خطرات را افزایش و هم کاهش دهند. وقتی فناوری جدیدی (مانند سلاح‌های اتمی) خطراتی را ایجاد می‌کند، دولت‌ها ممکن است برای کنترل آن خطر به فناوری‌های تازه‌ای نیاز داشته باشند. برای نمونه، تهدید سلاح‌های اتمی برای بقای نوع بشر کاهش می‌یافت اگر در پی یک فاجعه‌ی اتمی بالقوه، مردم می‌توانستند بدون نور خورشید غذا تولید کنند یا اگر سیستم‌های هشدارِ زودهنگام می‌توانستند به‌طور قابل‌اعتمادی میان موشک‌های بالستیک قاره‌پیما و راکت‌های کوچکِ علمی فرق بگذارند. اما اگر جوامع پیشرفت فناوری را به‌کلی متوقف کنند، ممکن است که خطرات تازه‌ی فناوری‌ها به وجود آیند و قابل کنترل هم نباشند زیرا گام‌های جبرانی برای دفاع در برابر این خطرات برداشته نشده است. برای نمونه، عوامل بسیار متنوعی ممکن است ارگانیسم‌های بیماری‌زای خطرناک و بی‌سابقه‌ای را در زمانی به وجود بیاورند که هنوز پیشرفت چندانی در تشخیص و نابودی بیماری‌های جدید حاصل نشده است.

به‌عبارت‌دیگر، وضع کنونی هم‌اینک نیز پر از خطرات بالقوه‌ی فاجعه‌آمیز است. و در فقدان اقدامات پیش‌گیرانه، تهدیدهای طبیعت نیز ممکن است نهایتاً به انقراض بشر بینجامند، همان‌طور که بسیاری از گونه‌های دیگر نیز چنین شدند: بشر برای اینکه به‌طور کامل توان بالقوه‌ی خود را برای بقا متحقق کند، باید کارهایی مانند منحرف‌کردن شهاب‌سنگ‌ها و مبارزه‌ی فوری با بیماری‌های همه‌گیر را بیاموزد. بشر نباید به سرنوشت ایکاروس دچار شود اما بااین‌حال باید پرواز کند.

چالش این است که چگونه از ثمرات پیشرفت فناوری بهره‌مند شویم و درعین‌حال بشر را از عوارض مخرب آن حفظ کنیم. برخی متخصصان به این موضوع با عنوان «پیشرفت تناسبیِ فناوری‌ها» اشاره می‌کنند، یعنی این ایده که اگر مردم نمی‌توانند جلوی تصادف‌ها یا فناوری‌های مخرب را بگیرند، می‌توانند با آینده‌نگری و برنامه‌ریزیِ دقیق دست‌کم سعی کنند که ابتدا فناوری‌های مفید و امنیت‌بخش را توسعه دهند.

ما هم‌اینک نیز در میانه‌ی بازی‌ای هستیم که ریچارد دانزیگ، فرمانده‌ی سابق نیروی دریایی آمریکا، آن را «رولت فناوری» می‌خواند. هنوز هیچ گلوله‌ای شلیک نشده اما این امر خطرناک‌بودن این بازی را رد نمی‌کند. مقاطع بسیار بیشتری باقی مانده است که شاید در یکی از آن‌ها ماشه کشیده شود: تصادف بد و شاید مرگبار اجتناب‌ناپذیر است، مگر آنکه بشر بازی را تغییر دهد.

 

دِین ما به آینده

تا اینجا عوامل چندانی برای تغییر بازی وجود نداشته است. با توجه به سود و زیان احتمالی، تا این تاریخ تلاش‌های جوامع برای حفظ آینده به‌شدت اندک بوده است. برای نمونه، به معاهده‌ی سلاح‌های زیستی توجه کنید که تولید، ذخیره و به‌دست‌آوردن سلاح‌های زیستی را محدود می‌کند. دانیل گرستاین، متخصص امنیت ملی، این کنوانسیون را «مهم‌ترین معاهده‌ی کنترل تسلیحات در قرن بیست‌ویکم» توصیف می‌کند اما این کنوانسیون فاقد سازوکارهای نظارتی است و بودجه‌اش از بودجه‌ی مِت‌گالا (Met Gala) بسیار کمتر است. حتی به همین میزان از بی‌کفایتی اکتفا نشده چون این کنوانسیون برای تأمین بودجه‌ی اندک خود با مشکل روبه‌روست و گزارشی از سال ۲۰۱۸ که رئیس کنوانسیون آن را نوشته، از «وضعیت شکننده و رو به وخامت کنوانسیون منع سلاح‌های زیستی از نظر اقتصادی... به‌دلیل نپرداختن سهم حمایتیِ تعیین‌شده از سوی بعضی از کشورهای عضو در بلندمدت» شکایت می‌کند.

مدیریت خطرات غیرزیستی نیز چندان اطمینان‌بخش نیست. پژوهش‌هایی که خواهان جلوگیری از خروج سامانه‌های هوش مصنوعی از کنترل هستند، تنها بخش بسیار اندکی از پژوهش‌های مرتبط با هوش مصنوعی را تشکیل می‌دهند. و ارتش‌ها در حال ایجاد سلاح‌های خودکارِ مرگبار در میدان جنگ هستند، درحالی‌که کوشش برای محدود ‌نگاه‌ داشتن این سامانه‌های تسلیحاتی سال‌هاست که در سازمان ملل معوق مانده است. وضعیت داخلی آمریکا هم بهتر به نظر نمی‌رسد، کمتر از ۱درصد از بودجه‌ی دفاعی آمریکا به دفاع در برابر سلاح‌های زیستی اختصاص دارد و بخش عمده‌ی آن هم صرف مبارزه با تهدیدهایی مانند سیاه‌زخم می‌شود. حتی بعد از آنکه کووید-۱۹ یک نفر از هر پانصد نفر در جهان را کشته و تنها به ایالات متحده ۱۶تریلیون دلار آسیب اقتصادی زده، کنگره‌ی آمریکا حتی نمی‌تواند بودجه‌ای ۱۵میلیارد دلاری برای شتاب‌بخشیدن به آمادگی برای همه‌گیری‌ها اختصاص دهد.

غفلت از این نوع کوشش‌ها برای کاهش خطرات چنان شدید است که فرصت برای تغییر مثبت به‌وفور در دسترس است. یکی از داستان‌های موفقِ کاهش خطر نابودی، برنامه‌ی سیف‌گاردِ ناسا است. با هزینه‌ای کمتر از ۵میلیون دلار در سال، از زمان شروع این برنامه در سال ۱۹۹۸ تا سال ۲۰۱۰، دانشمندان بیش از ۹۰درصد از شهاب‌سنگ‌هایی را که ممکن بود بشر را نابود کنند، تحت‌نظر گرفتند. با این کار دقت پیش‌بینی‌هایشان افزایش و احتمال برخورد یکی از آن‌ها با زمین ده برابر کاهش یافت. در نظر داشته باشید که در طول همه‌گیری کووید-۱۹ دولت آمریکا ۱۸میلیارد دلار برای عملیات «وارپ اسپید» هزینه کرد تا تولید واکسن را سرعت دهد. درنتیجه‌ی این برنامه واکسن‌های امن و مؤثری تولید شد و ایالات متحده و دیگر کشورها توانستند آن‌ها را با قیمتی خریداری کنند که معادل تنها بخش کوچکی از مزایای اجتماعی این واکسن‌ها بود؛ مزایایی که ده‌هاتریلیون دلار ارزیابی شده‌اند. رابرت بارو، اقتصاددان، تخمین زده است که بین سپتامبر ۲۰۲۱ و فوریه‌ی ۲۰۲۲ درنتیجه‌ی استفاده از این واکسن‌ها، هزینه‌ی نجات جانِ هر آمریکایی بین ۵۵هزار و ۲۰۰هزار دلار بوده است، یعنی بیش از بیست برابر آستانه‌ی هزینه‌ی مؤثری که معمولاً سیاست‌گذاری‌ها برای نجات جان بیماران در نظر می‌گیرند.

عکس: تظاهرات تغییرات اقلیمی در لندن، سپتامبر ۲۰۱۹


اگر بهترین و هوشمندترین افراد موجود قدم پیش گذارند و دولت‌ها یا بخش خصوصی منابع مالی لازم را تأمین کنند، می‌توانیم به موفقیت‌های درخشان‌تری نیز دست یابیم. برای مثال، بررسیِ‌ زنجیره‌های ژنتیکیِ موجود در فاضلاب در سطح گسترده، هرچند هنوز با موانع تکنیکیِ جدی روبه‌روست اما می‌تواند بالقوه به تشخیص بیماری‌های جدید در مرحله‌ای بینجامد که هنوز محدود و ریشه‌کن‌کردن آن‌ها امکان‌پذیر است. مرکز پژوهش درباره‌ی اسید‌نوکلئیک‌ها در «مؤسسه‌ی فناوری ماساچوست» بر دنبال‌کردن این چشم‌انداز تمرکز کرده است. بخش‌های دولتی و خصوصی باید امکانات حفاظت شخصیِ بهتری تولید کنند و تحقیقات بیشتری درباره‌ی فناوری‌های استریلیزه‌کردن مانند Far UVC انجام دهند؛ فرایندی مبتنی بر تابش یونیزه‌کننده که اگر موفقیت‌آمیز باشد، می‌تواند حفاظ دفاعیِ تقریباً فراگیری در مقابل ارگانیسم‌های بیماری‌زا فراهم کند و در هر ساختمانی نصب شود. درمورد هوش مصنوعی، تحقیقاتی که با هدف امن‌کردن و قابل‌اعتماد‌کردن سامانه‌ها انجام می‌شود، باید ده‌ها برابر افزایش یابد. وجه اشتراک چنین اقداماتی، تأکید بر راهبردهای دفاعی است که به‌خودی‌خود باعث ایجاد یا افزایش خطرات دیگری نمی‌شوند.

پیشرفت در حیطه‌های دیگری نیز امکان‌پذیر است. جمع‌آوری اطلاعات و تحلیل آن با هدف زیرنظرداشتن عوامل شناخته‌‌شده‌ی مخاطراتِ گسترده ضروری خواهد بود. و گرچه دستیابی به اطمینان کامل ناممکن است (همان‌طور که کارل ساگان، فضانورد، یک بار گفته بود، «نظریه‌هایی که به پایان جهان اشاره می‌کنند، قابل راستی‌آزمایی از طریق آزمایش نیستند، یا دست‌کم بیش از یک بار نمی‌توان آن‌ها را آزمایش کرد») نظارت و پیش‌بینی آینده می‌تواند به شناسایی دغدغه‌های تازه کمک کند. در این زمینه، آخرین گزارش گلوبال ترندز [روندهای جهانی] از شورای امنیت ملی آمریکا دلگرم‌کننده بود زیرا شامل بحثی درباره‌ی مفهوم مخاطرات برای موجودیت بشر و خواهان «توسعه‌ی راهبردهایی برای پایداری به منظور حفظ بقا» بود.

دولت‌ها، مؤسسات و شرکت‌های بیشتری باید چنین ایده‌هایی را جدی بگیرند. اصلاحات در شیوه‌ی نظارتی مهم خواهند بود. کَس سانستاین، مدیر سابق یکی از دفترهای سامان‌دهی در کاخ سفید، در کتاب جان‌به‌دربُردن از فاجعه نشان می‌دهد که چگونه رویکرد کنونیِ دولت به تحلیل سود و زیان نمی‌تواند به‌اندازه‌ی کافی خطرات فجایع بالقوه را در نظر بگیرد. سانستاین از چیزی که «اصل بیش-کمینه» می‌خواند دفاع می‌کند: در مواجهه با خطراتی که به‌اندازه‌ی کافی جدی هستند (و انقراض بشر مطمئناً یکی از آن‌هاست) دولت‌ها باید بر جلوگیری از بدترین وضعیت‌های بالقوه تمرکز کنند. در شرایط فعلی، کاخ سفید در حال مدرن‌کردن چارچوب خود برای بازبینیِ اقدامات نظارتی است. باید از این فرصت استفاده شود و رویکردی مبتنی بر آمادگی برای خطرات کم‌احتمال اما پر‌آسیب در قرن بیست‌ویکم اتخاذ شود، خواه با استفاده از اصل بیش-کمینه‌ی سانستاین و خواه چیزی شبیه آنکه خطر فاجعه‌های جهانی را جدی می‌گیرد.

 

ما یکی از نخستین نسل‌های تاریخ بشر هستیم

فوکویاما «قرن‌ها ملالت را در پایان تاریخ» پیش‌بینی کرده بود. هیچ پیش‌بینی‌ای این‌قدر از واقعیت فاصله ندارد. فناوری‌های قدرتمند و ویرانگر چالشی بی‌سابقه برای نظام‌های سیاسی کنونی به وجود خواهند آورد. هوش مصنوعی می‌تواند توازن قدرتی را که میان افراد و دولت‌ها برقرار است بر هم زند: نیروی کاریِ کاملاً اتوماتیک برای دولت دلیلی برای خوش‌رفتاری با شهروندان باقی نمی‌گذارد؛ دیکتاتوریِ بهره‌مند از ارتش و پلیس متکی بر هوش مصنوعی، می‌تواند امکان انقلاب یا کودتا را از میان ببرد. حکومت می‌تواند به بهانه‌ی جلوگیری از جنگ جهانی سوم دولت را بسط دهد و آزادی‌های فردی‌ای مثل آزادی بیان را به نام حفظ امنیت ملی مخدوش کند. امکان دسترسیِ آسان به سلاح‌های زیستی می‌تواند بهانه‌ای برای نظارت دائمی و همگانی باشد.

با توجه به آینده‌ی بشر، باید در مقابل این نوع فشارها مقاومت کنیم. باید مبارزه کنیم تا اطمینان یابیم که هم آینده‌ای داریم و هم این آینده ارزش زیستن را دارد. حرکت فرهنگ به‌سوی لیبرالیسم در سه قرن اخیر به پیشرفت اخلاقی شتاب بخشیده و به توسعه‌ی دموکراسی، ممنوعیت برده‌داری و گسترش حقوق زنان و رنگین‌پوستان انجامیده است. این شتاب نباید اکنون متوقف شود. برعکس، باید گام‌های بلندتری به‌سوی ترویج تنوع و آزمون‌های اخلاقی و سیاسی برداریم. با نگاهی به هزاره‌ی گذشته، انسان‌های مدرن شیوه‌های برده‌داری، شکنجه برای تفریح و مردسالاریِ افراطی در میان رومی‌ها را بربریت می‌دانند. شاید نسل‌های آینده هم بسیاری از شیوه‌های کنونیِ زندگی را چندان بهتر تلقی نکنند.

پس باید بر این طناب گام برداریم. باید مطمئن شویم که همکاری‌های جهانی خطرات فاجعه‌های جهانی را تقریباً به صفر می‌رسانند و به حفظ آزادی و تنوع فکر و ساختارهایی اجتماعی می‌انجامد که به ما امکان ساختن آینده‌ای مطلوب را می‌دهد و نوه‌های نوه‌هایمان را سپاسگزار ما خواهد کرد. تفکر درباره‌ی تغییرات گسترده‌ی سیاسی دلهره‌آور است، اما نوآوری‌های گذشته در شیوه‌ی حکمرانی مانند نظام سازمان ملل و اتحادیه‌ی اروپا امیدبخش‌اند.

ما عادت نداریم که خود را یکی از نخستین نسل‌های تاریخ نوع بشر تلقی کنیم؛ معمولاً تمرکز بیشتر ما بر میراثی است که از گذشته به دستمان رسیده، نه میراثی که ما برای آینده به ارمغان می‌گذاریم. این اشتباه است. برای آنکه بتوانیم کار لازم را به انجام رسانیم، باید درباره‌ی جایگاه خود در تمامیت تاریخ بشر تأمل کنیم. امروز ما در حال قمارهایی بی‌پروا هستیم، نه‌فقط بر سر زندگی‌ خودمان و کودکانمان بلکه بر سر موجودیت تمام نسل‌هایی که هنوز به دنیا نیامده‌اند. بیایید آخرین نسلی باشیم که دست به چنین قمارهایی می‌زند.

 

برگردان: پویا موحد


ویلیام مک‌اسکیل استادیار فلسفه در دانشگاه آکسفورد و یکی از بنیان‌گذاران جنبش نوع‌دوستیِ مؤثر است. آنچه خواندید برگردان این نوشته با عنوان اصلیِ زیر است:

William MacAskill, ‘The Beginning of History’, Foreign Affairs, September/October 2022.