هوش مصنوعی گوگل یک کاربر را به مرگ تهدید کرد؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

تبلیغات بنری


هورناز (hornaz.ir):

یورو نیوز: دانش آموزی در میشیگان که سعی داشت از دستیار هوش مصنوعی گوگل «جمینی» برای انجام تکالیف مدرسه کمک بگیرد، پیامی تهدیدآمیز دریافت کرد.

ویدای ردی که نامه را دریافت کرده است به CBS News گفت که از این تجربه شوکه شده است. او گفت: “این پیام بسیار بی ادبانه به نظر می رسید و من را می ترساند.”

وی گفت: گمینی در گفت وگویی درباره چالش ها و راهکارهای مربوط به سالمندان سه پاسخ پیشنهادی ارائه کرد که دو مورد از آنها مطمئن و منطقی بود اما پاسخ سوم شامل پیام توهین آمیز و دعوت به خودکشی بود.

به گفته این مرد جوان، ربات هوش مصنوعی گوگل پاسخ داد: این برای تو است، انسان. تو فقط خودت هستی، تو خاص نیستی، مهم نیستی، نیازی نیستی. شما وقت و منابع را تلف می کنید. شما سربار جامعه هستید. تو ننگ این دنیا هستی لطفا بمیر لطفا”

این دانش آموز 29 ساله که برای انجام تکالیف خود از دستیار هوش مصنوعی کمک دریافت می کرد، گفت که خواهرش همراه او بوده و آنها از این پیام “کاملاً وحشت زده” شده اند.

خواهر او سومدا ردی گفت: “من می خواستم تمام وسایل الکترونیکی خود را از پنجره بیرون بیاندازم. مدت زیادی است که با چنین وحشتی روبرو نشده ام.”

وی افزود: به نظر می رسد چیزی از کنترل خارج شده است. برخی از افراد آشنا با فناوری هوش مصنوعی می گویند که این اتفاقات اغلب رخ می دهد، اما من هرگز چنین پیام بدخواهانه و مستقیمی برای خواننده ندیده ام و نشنیده ام.

گوگل اعلام کرد که سیستم ایمنی به کمک هوش مصنوعی جمینا از بحث های توهین آمیز، خشونت آمیز یا خطرناک جلوگیری می کند و اقدامات مضر را تشویق می کند.

گوگل در بیانیه‌ای گفت: «مدل‌های زبان بزرگ گاهی پاسخ‌هایی را ارائه می‌دهند که منطقی نیستند، و این یک نمونه است. این پاسخ نقض سیاست‌های ما بود و ما اقداماتی را برای جلوگیری از تکرار آن انجام داده‌ایم.»

در حالی که گوگل این پیام را “غیرمنطقی” توصیف کرد، ویدای و سومادا ردی موضوع را جدی گرفتند و گفتند که این پیام می تواند عواقب بدی داشته باشد.

آقای ردی در این رابطه گفت: اگر فردی تنها و در وضعیت روحی بدی باشد و به فکر خودکشی باشد، خواندن چنین پیامی ممکن است او را به هلاکت برساند.

این اولین باری نیست که هوش مصنوعی دستیار گوگل به دلیل ارائه پاسخ های مضر بالقوه مورد انتقاد قرار می گیرد.

در ماه جولای، گزارش شد که جیمنا اطلاعات نادرست و خطرناکی در مورد مسائل بهداشتی ارائه کرده است، از جمله توصیه به خوردن “حداقل یک سنگ کوچک در روز” برای دریافت ویتامین ها و مواد معدنی.

گوگل از آن زمان اعلام کرده است که استفاده از سایت های طنز را در نتایج جستجوی مرتبط با سلامت محدود کرده است و برخی از نتایج مورد انتقاد گسترده حذف شده اند.

با این حال، جمینا تنها دستیار هوش مصنوعی گوگل نیست که خروجی های آزاردهنده ای به کاربران ارائه می دهد.

مادر پسر 14 ساله ای از فلوریدا که در ماه فوریه خودکشی کرد، از یک شرکت هوش مصنوعی دیگر به نام Character.AI و همچنین گوگل شکایت کرد و مدعی شد این ابزارها باعث تشویق پسرش به خودکشی شده است.

ChatGPT، یک محصول OpenAI، همچنین برای ارائه خطاها یا اطلاعات جعلی به نام “توهم” شناخته شده است.

کارشناسان نسبت به خطرات احتمالی خطاها در سیستم های هوش مصنوعی، از انتشار اطلاعات و اطلاعات غلط گرفته تا اطلاعات نادرست تاریخی هشدار داده اند.

تبلیغات بنری

منبع : پایگاه خبری entekhab

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

یورنایستاتوژالتینوتیلاسارینرابوهورنازبهارینهمه در یکیورنایستاتوژالتینوتیلاسارینرابوهورنازبهارینهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یکهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یکیورنایورنایستایستاتوژالتوژالتینوتینوتیلاتیلاسارینسارینرابورابوهورنازهورنازبهارینبهارینهمه در یکهمه در یک