عصرایران؛ محمد مهدی حیدرپور - ممکن است استیون هاوکینگ به واسطه فعالیت های خود در زمینه شناخت سیاهچاله ها و تکینگی های گرانشی بسیار مشهور باشد اما این فیزیکدان برجسته ایده های جالب توجه و البته نگران کننده ای درباره چیزهایی که می توانند تمدن بشری را نابود کنند، ارائه کرده و در این زمینه نیز شناخته شده است.
به گزارش "گروه علم و فناوری" عصرایران، استیون هاوکینگ از بیماری نورون حرکتی مشابه با اسکلروز جانبی آمیوتروفیک یا ALS رنج می برد که فلج شدن وی و عدم توانایی صحبت بدون استفاده از یک سیستم صوتی ویژه را موجب شده است. اما این شرایط وی را از صحبت درباره طیف وسیع خطراتی که انسان می تواند با آنها مواجه شود، باز نداشته است. در ادامه برخی اظهارنظرهای این دانشمند مشهور درباره مواردی که می توانند نابودی تمدن بشری را موجب شوند، ارائه می کنیم.
هوش مصنوعی
هاوکینگ در میان گروه کوچک اما رو به رشدی از دانشمندان قرار دارد که نگرانی خود درباره هوش مصنوعی "قدرتمند" - هوشی که می تواند برابر با هوش انسان باشد و یا از آن پیشی بگیرد - ابراز کرده اند. هاوکینگ طی یکی از مصاحبه های خود با بیبیسی در سال 2014 اعلام کرد که توسعه هوش مصنوعی کامل می تواند به معنای نقطه پایانی برای نوع بشر باشد. این اظهارنظر در پاسخ به پرسشی پیرامون سیستم صوتی هوش مصنوعی جدیدی که وی مورد استفاده قرار می دهد، ابراز شد. هشدار هاوکینگ بازتاب دهنده اظهارنظر ایلان ماسک، مدیر عامل شرکت تسلا است که هوش مصنوعی را بزرگترین تهدید وجودی برای انسان عنوان کرده است.
هاوکینگ، ماسک و چند دانشمند دیگر اخیرا نامه ای را امضا کرده اند که در آن خطرات و همچنین مزایای هوش مصنوعی شرح داده شده اند. دانشمندان در این نامه که به صورت آنلاین توسط موسسه فیوچر آو لایف، سازمانی که کاهش تهدیدات وجودی برای انسان را هدف گذاری کرده است، در یازدهم ژانویه منتشر شد به این نکته اشاره داشته اند که با توجه به پتانسیل بالای هوش مصنوعی، پژوهش درباره چگونگی استفاده از مزایای آن در شرایطی که از خطرات بالقوه پرهیز می شود، مهم است.
اما به گفته بسیاری از پژوهشگران فعال در زمینه هوش مصنوعی، انسان همچنان با کسب توانایی برای توسعه هوش مصنوعی قدرتمند فاصله بسیار زیادی دارد. به گفته دمیس هاسابیس، پژوهشگر هوش مصنوعی در گوگل دیپمایند، انسان دهه ها با هر گونه فناوری که می تواند موجبات نگرانی ما را فراهم کند، فاصله دارد.
درازدستی بشر
اگر ماشین آلاتی که ساخته ایم مرگ انسان را رقم نزنند ممکن است به دست خودمان کشته شویم. استیون هاوکینگ معتقد است درازدستی بشر ممکن است موجب نابودی تمدن شود. وی طی توری که با آدائز ویانواه معلم 24 ساله آمریکایی، از موزه علوم لندن داشت در پاسخ به این پرسش ویانواه که بیشتر از همه دوست دارید چه ویژگی منفی در انسان را تغییر دهید به درازدستی انسان اشاره داشت. به اعتقاد هاوکینگ این ویژگی مزایایی برای بقا در دوران غارنشینی به منظور کسب غذا، قلمرو بیشتر یا یافتن جفت برای تولید مثل داشته است اما در حال حاضر تهدیدی برای نابودی همه ما محسوب می شود. به عنوان مثال، یک جنگ اتمی احتمالا پایانی بر تمدن خواهد بود و می تواند نسل بشر را از بین ببرد.
هاوکینگ در پاسخ به این پرسش که دوست دارید کدام خصوصیت انسان را برجسته کنید نیز به همدلی اشاره داشته زیرا معتقد است این ویژگی همه ما را در شرایطی محبت آمیز و آرام گرد هم می آورد.
حیات بیگانه
به اعتقاد استیون هاوکینگ، اکتشافات فضایی برای حصول اطمینان از بقای بشریت مهم خواهند بود. اما هشدارهایی شوم درباره حیات بیگانه نیز داده است. البته این قبیل هشدار از سوی وی سابقه ای طولانی دارند. هاوکینگ در سال 2010 اعلام کرد اگر حیات هوشمند بیگانه وجود داشته باشد ممکن است با انسان غیر دوستانه رفتار کند.
به گفته هاوکینگ، حتی اگر بیگانگان فضایی از سیاره ما بازدید کنند نتیجه ای بهتر از آن چه در زمان کشف آمریکا توسط کریستف کلمب رخ داده و بومی های آمریکایی را تحت تاثیر قرار داد، حاصل نخواهد شد. تمدن های پیشرفته بیگانه ممکن است در پی تسخیر سیاراتی باشند که به آنها دسترسی پیدا می کنند و به عنوان مثال از منابع آنها برای ساخت سفینه های فضایی و ادامه حرکت خود استفاده کنند.
آنچه مشخص است از تهدید هوش مصنوعی تا بیگانگان فضایی پیشرفته و رفتارهای خصمانه انسان، چشم اندازی که استیون هاوکینگ برای بشریت ترسیم می کند چندان روشن به نظر نمی رسد.
برای خواندن مطالب بیشتر در زمینه علم و فناوری به اینجا مراجعه کنید.