تبیان، دستیار زندگی

 بزرگ‌ترین خطرات هوش مصنوعی از نظر مردم

هوش مصنوعی با سرعتی بی‌سابقه در حال پیشرفت است و تأثیرات عمیقی بر جنبه‌های مختلف زندگی انسانی، از صنعت و اقتصاد گرفته تا جامعه و اخلاق، دارد. درحالی‌که مزایای هوش مصنوعی قابل‌توجه است، نگرانی‌ها و خطرات بالقوه‌ای نیز در ارتباط با توسعه و کاربرد آن وجود دارد.
عکس نویسنده
عکس نویسنده
نویسنده : مهسا زحمتکش
بازدید :
زمان تقریبی مطالعه :
 بزرگ‌ترین خطرات هوش مصنوعی از نظر مردم ، هوش مصنوعی،
هوش مصنوعی با سرعتی بی‌سابقه در حال پیشرفت است و تأثیرات عمیقی بر جنبه‌های مختلف زندگی انسانی، از صنعت و اقتصاد گرفته تا جامعه و اخلاق، دارد. درحالی‌که مزایای هوش مصنوعی قابل‌توجه است، نگرانی‌ها و خطرات بالقوه‌ای نیز در ارتباط با توسعه و کاربرد آن وجود دارد.
 
مانند هر پیشرفت تکنولوژیکی، ابزارهای هوش مصنوعی مولد مانند ChatGPT، تولیدکننده تصویر Midjourney یا Claude و ربات گفتگوی ایجاد شده توسط استارتاپ هوش مصنوعی Anthropic، برای بهره‌وری و ایجاد محتوا عالی هستند ولی نباید کلاهبرداری و سوءاستفاده از آنها را که به طور فزاینده‌ای رو به رشد است، نادیده گرفت. در میان این موج جدید محتوای مخرب و دیپ‌فیک به‌ویژه قابل‌توجه است. این قطعات محتوای سمعی و بصری که به طور مصنوعی تولید شده‌اند شامل کلاهبرداری از رأی‌دهندگان از طریق جعل هویت سیاستمداران یا ایجاد تصاویر مستهجن غیراجتماعی از افراد مشهور است. همان‌طور که یک نظرسنجی اخیر توسط مایکروسافت نشان می‌دهد، تقلب‌ها، کلاهبرداری‌ها و سوءاستفاده‌ها چیزی است که کاربران آنلاین در سراسر جهان بیشتر نگران آن هستند.

۷۱ درصد از پاسخ‌دهندگان در ۱۷ کشوری که توسط مایکروسافت مورد بررسی قرار گرفتند، تا حدودی بسیاری نگران کلاهبرداری‌های آنلاین به کمک هوش مصنوعی بودند، این کلاهبرداری‌ها به احتمال زیاد به جعل هویت یک شخص در انظار عمومی، یک مقام دولتی یا یکی از آشنایان نزدیک پاسخ‌دهندگان مرتبط است.

در رتبه دوم و سوم به ترتیب، دیپ‌فیک و سوءاستفاده جنسی یا آنلاین با ۶۹ درصد قرار دارد.

توهمات هوش مصنوعی که به‌عنوان چت ربات‌هایی مانند ChatGPT تعریف می‌شوند که به دلیل مشکلات مربوط به مطالب آموزشی، پاسخ‌های بی‌معنی را به‌عنوان حقایق ارائه می‌کنند، در رتبه چهارم قرار دارند و نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها که مربوط به آموزش مدل‌های زبان بزرگ بر روی داده‌های در دسترس عموم کاربران است، با ۶۲ درصد در جایگاه پنجم قرار دارد.

نمونه‌هایی از تعصب هوش مصنوعی در دنیای واقعی به ما نشان می‌دهند که وقتی داده‌ها و الگوریتم‌های تبعیض‌آمیز در مدل‌های هوش مصنوعی ساخته می‌شوند، مدل‌ها سوگیری‌ها را در مقیاس به کار می‌گیرند و اثرات منفی ناشی از آن را تقویت می‌کنند، در اینجا نیز تعصب و سوگیری در رتبه ششم با ۶۰ درصد قرار دارد.

در نهایت نیز به‌طورکلی، ۸۷ درصد از پاسخ‌دهندگان حداقل تا حدودی نگران یک سناریوی مشکل‌ساز هوش مصنوعی بودند.

علی‌رغم بازار عظیم هوش مصنوعی، که توسط منابع مختلف بین ۳۰۰ تا ۵۵۰ میلیارد دلار در سال ۲۰۲۴ تخمین زده می‌شود، نتایج نظرسنجی نشان می‌دهد که نادیده‌گرفتن خطرات و دام‌های بالقوه آن می‌تواند برای جامعه در کل مضر باشد. این امر به‌ویژه در زمینه‌های حساس مانند سیاست صادق است. با نزدیک‌شدن به فضای انتخابات آمریکا، چشم‌انداز رسانه‌های اجتماعی مملو از اطلاعات نادرست تولید شده مصنوعی خواهد بود.

خطرات هوش مصنوعی از نظر مردم ، فضای انتخابات آمریکا، هوش مصنوعی ،رسانه‌های اجتماعی ،
درحالی‌که هوش مصنوعی ظرفیت‌های عظیمی برای بهبود زندگی انسان‌ها دارد، اما خطرات و چالش‌های جدی نیز به همراه دارد که نیازمند توجه و بررسی دقیق هستند. برای مقابله با این خطرات، تدوین قوانین و مقررات مناسب، افزایش آگاهی عمومی، و پژوهش‌های مستمر در زمینه اخلاقیات و امنیت هوش مصنوعی ضروری است. همکاری بین‌المللی نیز در ایجاد چارچوب‌های نظارتی مؤثر برای اطمینان از استفاده امن و مسئولانه از هوش مصنوعی نقش حیاتی دارد.