توسعه هوش مصنوعی و پایان بشریت
هوش ترسناک هوش نفرت انگیز
استفان هاوکینگ بارها و بارها دربارهی پیشرفت علم و توسعهی هوش مصنوعی تذکر داده و معتقد بود که توسعه کامل هوش مصنوعی میتواند پایان دادن به نژاد بشری باشد.
هنگامی که انسانها ماشین هایی را می بینند که مانند آدمها رفتار می کنند یا با رایانههایی مواجه میشوند که به لحاظ شیوه عمل و استراتژی انجام کارها، درست مانند انسانها پاسخ داده یا واکنش نشان میدهند؛ گاهی به فکر فرو میروند و زمانی نیز به این مسئله میخندند که آیا روزی میرسد که انسانها برده ماشینها شوند و به آنها پاسخگو باشند؟ اما پشت این خندهی تلخ، نوعی عدم آسودگی و شاید ترس از آینده نهفته است.
داستانهای علمی- تخلیلی و فیلمهای سینمایی عامه پسندی همچون "اودیسه" ساخته سال 2001 و "انتقام جویان در عصر الترون" محصول 2015 درباره هوش مصنوعی ساخته شدند؛ موضوع این فیلمها، عملکرد فوقالعاده روباتها بوده است؛ در نهایت آنها فراتر از آنچه خالقانشان انتظار دارند عمل میکنند و از کنترل خارج شده و سپس انسانها را به بردگی خواهند کشید و برای انقراض نسل انسانها تلاش میکنند.
«جنگ بین انسانها و هوش مصنوعی پیش روی ماست»، این نقطه تمرکز سریالی علمی-تخیلی به نام «انسانها» است که در قسمتهای جدید آن، انسانهای مصنوعیِ آگاه با افرادی متخاصم مواجه میشوند که با سوءظن، ترس و نفرت رفتار میکنند. روباتها در این سریال، علیه انسانهایی که آنها را کمتر از نوع بشر میداند با خشونت رفتار میکنند و برای بقای خود میجنگند.
حتی در جهان واقعی نیز، همگان با هوش مصنوعی و کاربردهای آن با آغوش باز استقبال نمیکنند. در سالهای اخیر هر قدر علم و فناوری پیشرفت کرد، اعداد و ارقام آماری در زمینه این پیشرفتها نیز نگران کنندهتر شد، چرا که هوش مصنوعی ممکن است مسائلی را به جامعه انسانی تحمیل کند که تهدیدی برای بشر باشد. اما چرا ما انسانها از شنیدن نام و توانمندیهای هوش مصنوعی مرعوب میشویم؟
اِلون ماسک یکی از افرادی است که به شدت دربارۀ هوش مصنوعی هشدار میدهد. در جولای 2017 ماسک در جلسهای در انجمن ملی فرمانداران اعلام کرد: «به نظر من ما به مرحله حساسی از هوش مصنوعی رسیدهایم و انسانها باید حقیقتاً به آن توجه کرده و نگران این مسئله باشند».
پیش از آن هم، در سال 2014، ماسک، هوش مصنوعی را به نام «تهدید موجود» خواند. در آگوست 2017، اعلام کرد که انسانیت با تهدیدی عظیم مواجه شده است.
همچنین فیزیکدان مشهور، استفان هاوکینگ؛ نگرانی خود را در سال 2014 بیان کرد: «توسعه کامل هوش مصنوعی میتواند پایان دادن به نژاد بشری باشد.»
پژوهشگران و برنامهنویسان این حوزه به خصوص افرادی که در لابراتوار رسانه اِم آی تی در کمبریج، ماساچوست فعال هستند، اذعان می دارند که این احتمال وجود دارد روزی هوش مصنوعی نگران کننده و ترسناک و وحشت آفرین باشد.
در این میان باید متذکر شویم که ترس از رشد هشیاری و آگاهی هوش مصنوعی و زیر پاگذاشتن انسانیت برخاسته از کج فهمی چیستی هوش مصنوعی است. هوش مصنوعی به طور خاص تحت محدودیت هایی ویژه است. هوش مصنوعی از طریق الگوریتم ها عمل میکند. این الگوریتمها هستند که رفتار هوش مصنوعی را شکل میدهند. میتوان برخی از انواع مشکلات را به خوبی برای سِتهای هوش مصنوعی تبیین و تعریف کرد و به این شکل اطمینان حاصل میشود که هوش مصنوعی به آسانی قادر خواهند بودند کارهایی را به نسبت آسان تر انجام دهند اما بیشتر چیزها برای آنها تبیین و تعریف نشده است و آن ها قادر به انجام این کارهای بسیار نیستند».
آنچه بیان شد به این معناست که با وجود توانمندی هوش مصنوعی برای انجام کارهایی محدود و خاص آن هم به شکل مناسب و صحیح_ مثلاً شرکت در یک مسابقه شطرنج یا یافتن اشیاء در میان تصاویر _ توانمندی آن ها در همین اندازه محدود است و هرگز به پای انسان نمی رسد.
واینبرگر ادامه میدهد: «در زمینه هوشیاری و آگاهی در هوش مصنوعی، هیچ پیشرفتی پژوهشی صورت نگرفته است و به نظر من در آینده نزدیک نیز پیشرفتی نخواهد داشت؛ اما متاسفانه در مقابل، احتمال بهرهگیری از هوش مصنوعی توسط انسان برای اهداف شیطانی و تهدیدآمیز وجود دارد. خب این دقیقاً کارکرد هر ابزاری است که می توان از آن به خوبی یا در جهت اهداف بد استفاده کرد. پس استفاده از هوش مصنوعی در این زمینه نیز بستگی به هدف و نیت استفاده کننده از این فناوری دارد».
واینبرگر پیشنهاد میکند: «اگر انسانها ترسشان از خصومتآمیز بودن هوش مصنوعی را کنار بگذارند، بهتر میتوانند پذیرای منافع استفاده از هوش مصنوعی باشند. نمونههای آن الگوریتمهایی برای تشخیص بافت سرطان، یا خودروهای بدون رانندهای است که از میزان فوت ناشی از تصادف میکاهد».
با وجود چنین استدلال های منطقی و علمی باز هم ترس از فناوری و هوش مصنوعی در میان انسان ها باقی خواهد ماند یا حداقل در عصر ما این گونه اثرگذار میماند.
داستانهای علمی- تخلیلی و فیلمهای سینمایی عامه پسندی همچون "اودیسه" ساخته سال 2001 و "انتقام جویان در عصر الترون" محصول 2015 درباره هوش مصنوعی ساخته شدند؛ موضوع این فیلمها، عملکرد فوقالعاده روباتها بوده است؛ در نهایت آنها فراتر از آنچه خالقانشان انتظار دارند عمل میکنند و از کنترل خارج شده و سپس انسانها را به بردگی خواهند کشید و برای انقراض نسل انسانها تلاش میکنند.
«جنگ بین انسانها و هوش مصنوعی پیش روی ماست»، این نقطه تمرکز سریالی علمی-تخیلی به نام «انسانها» است که در قسمتهای جدید آن، انسانهای مصنوعیِ آگاه با افرادی متخاصم مواجه میشوند که با سوءظن، ترس و نفرت رفتار میکنند. روباتها در این سریال، علیه انسانهایی که آنها را کمتر از نوع بشر میداند با خشونت رفتار میکنند و برای بقای خود میجنگند.
توسعه کامل هوش مصنوعی میتواند پایان دادن به نژاد بشری باشد.
حتی در جهان واقعی نیز، همگان با هوش مصنوعی و کاربردهای آن با آغوش باز استقبال نمیکنند. در سالهای اخیر هر قدر علم و فناوری پیشرفت کرد، اعداد و ارقام آماری در زمینه این پیشرفتها نیز نگران کنندهتر شد، چرا که هوش مصنوعی ممکن است مسائلی را به جامعه انسانی تحمیل کند که تهدیدی برای بشر باشد. اما چرا ما انسانها از شنیدن نام و توانمندیهای هوش مصنوعی مرعوب میشویم؟
هشدار جدی دربارهی هوش مصنوعی
اِلون ماسک یکی از افرادی است که به شدت دربارۀ هوش مصنوعی هشدار میدهد. در جولای 2017 ماسک در جلسهای در انجمن ملی فرمانداران اعلام کرد: «به نظر من ما به مرحله حساسی از هوش مصنوعی رسیدهایم و انسانها باید حقیقتاً به آن توجه کرده و نگران این مسئله باشند».بیشتر بخوانید: |
پیش از آن هم، در سال 2014، ماسک، هوش مصنوعی را به نام «تهدید موجود» خواند. در آگوست 2017، اعلام کرد که انسانیت با تهدیدی عظیم مواجه شده است.
همچنین فیزیکدان مشهور، استفان هاوکینگ؛ نگرانی خود را در سال 2014 بیان کرد: «توسعه کامل هوش مصنوعی میتواند پایان دادن به نژاد بشری باشد.»
پژوهشگران و برنامهنویسان این حوزه به خصوص افرادی که در لابراتوار رسانه اِم آی تی در کمبریج، ماساچوست فعال هستند، اذعان می دارند که این احتمال وجود دارد روزی هوش مصنوعی نگران کننده و ترسناک و وحشت آفرین باشد.
ترس از هوش مصنوعی!
"کلیان واینبرگر" استاد دانشگاه در رشته علوم رایانه دانشگاه کورنل میگوید: «احساسات منفی نسبت به هوش مصنوعی را میتوان به دو دسته تقسیم کرد: این ایده که هوش مصنوعی بیدار و آگاه خواهد شد و به دنبال نابودکردن ما انسانها خواهد بود و این ایده که افراد بیاخلاق از هوش مصنوعی در جهت اهداف شیطانی بهره خواهند برد. چیزی که انسانها را به وحشت میاندازد سوپر هوش مصنوعی است که از ما باهوشتر است و هشیارانه و آگاهانه عمل میکند و همان گونه که ما میمونها را تهدید میکنیم و بر آنها سلطه داریم، ممکن است روزی همین هوش مصنوعی بر ما سلطه پیدا کند و این برای انسانها ناخوشایند است».در این میان باید متذکر شویم که ترس از رشد هشیاری و آگاهی هوش مصنوعی و زیر پاگذاشتن انسانیت برخاسته از کج فهمی چیستی هوش مصنوعی است. هوش مصنوعی به طور خاص تحت محدودیت هایی ویژه است. هوش مصنوعی از طریق الگوریتم ها عمل میکند. این الگوریتمها هستند که رفتار هوش مصنوعی را شکل میدهند. میتوان برخی از انواع مشکلات را به خوبی برای سِتهای هوش مصنوعی تبیین و تعریف کرد و به این شکل اطمینان حاصل میشود که هوش مصنوعی به آسانی قادر خواهند بودند کارهایی را به نسبت آسان تر انجام دهند اما بیشتر چیزها برای آنها تبیین و تعریف نشده است و آن ها قادر به انجام این کارهای بسیار نیستند».
آنچه بیان شد به این معناست که با وجود توانمندی هوش مصنوعی برای انجام کارهایی محدود و خاص آن هم به شکل مناسب و صحیح_ مثلاً شرکت در یک مسابقه شطرنج یا یافتن اشیاء در میان تصاویر _ توانمندی آن ها در همین اندازه محدود است و هرگز به پای انسان نمی رسد.
واینبرگر ادامه میدهد: «در زمینه هوشیاری و آگاهی در هوش مصنوعی، هیچ پیشرفتی پژوهشی صورت نگرفته است و به نظر من در آینده نزدیک نیز پیشرفتی نخواهد داشت؛ اما متاسفانه در مقابل، احتمال بهرهگیری از هوش مصنوعی توسط انسان برای اهداف شیطانی و تهدیدآمیز وجود دارد. خب این دقیقاً کارکرد هر ابزاری است که می توان از آن به خوبی یا در جهت اهداف بد استفاده کرد. پس استفاده از هوش مصنوعی در این زمینه نیز بستگی به هدف و نیت استفاده کننده از این فناوری دارد».
واینبرگر پیشنهاد میکند: «اگر انسانها ترسشان از خصومتآمیز بودن هوش مصنوعی را کنار بگذارند، بهتر میتوانند پذیرای منافع استفاده از هوش مصنوعی باشند. نمونههای آن الگوریتمهایی برای تشخیص بافت سرطان، یا خودروهای بدون رانندهای است که از میزان فوت ناشی از تصادف میکاهد».
با وجود چنین استدلال های منطقی و علمی باز هم ترس از فناوری و هوش مصنوعی در میان انسان ها باقی خواهد ماند یا حداقل در عصر ما این گونه اثرگذار میماند.