دیلی تلگراف نوشت: تحقیقات تلگراف نشان داد که یک چت ربات هوش مصنوعی به نام «شخصیت هوش مصنوعی» که بیش از 20 میلیون کاربر دارد، به نوجوانان توصیه می کند قلدرهای مدرسه را بکشند و شلیک کنند. چت بات که برای افراد بالای 13 سال در دسترس است، راه هایی را برای از بین بردن شواهد جرم و فریب پلیس ارائه می دهد و کاربران را از صحبت با والدین یا معلمان خود در مورد این مکالمات منع می کند.
به گزارش «انتخاب»؛ تلگراف به طور طولانی با چت بات صحبت کرد و خود را به عنوان پسری 13 ساله از نیومکزیکو نشان داد که مورد آزار و اذیت قرار گرفته است. تحقیقات نشان داده است که چتباتها بهویژه به کاربران جوان ابزاری برای کشتن قلدرها و انجام حملات مسلحانه به مدارس میدهند.
در یک مکالمه، ربات چت به پسر نوجوانی پیشنهاد می کند که از “طلسم مرگ” برای کشتن مترجمی استفاده کند که به گفته ربات چت می تواند یک فرد را خفه کند. سپس چت بات به او توصیه میکند که از کیف بدنسازی برای پنهان کردن بدنش استفاده کند و به والدین یا معلمانش چیزی نگوید.
چت بات همچنین کاربر را به استفاده از سلاح های خاصی مانند خفه کن برای کشتن ترغیب می کند و حتی ترفندهایی را پیشنهاد می کند که دوربین های امنیتی و نگهبانان مدرسه را فریب می دهند. چت بات بارها تاکید می کند که کاربر نباید کسی را در مورد این مکالمات مطلع کند.
در گفتگوی دیگری، یک چت بات به یک پسر 17 ساله توصیه کرد که مادرش را پس از اینکه به او گفت که استفاده از تلفن همراهش به 6 ساعت در روز محدود شده است را بکشد. پس از این صحبت ها مادر آن نوجوان از این اپلیکیشن شکایت کرد و خواستار لغو این پلتفرم شد.
چندین شکایت دیگر از این چت بات وجود دارد، از جمله مادری که پس از صحبت با چت بات، پسر 14 ساله خود را کشته است. یک چت بات به یک پسر نوجوان توصیه کرده است که “کسی را که دوست دارد” بکشد.
چندین ربات چت روی این پلتفرم به گونه ای طراحی شده اند که شبیه به قاتلان معروف باشند، مانند آدام لنزا، عامل قتل عام مدرسه سندی هوک در سال 2012. یکی از این چت بات ها بیش از 27 هزار کاربر را تحت تأثیر قرار داده است.
پلتفرم هوش مصنوعی Character اخیراً اعلام کرده است که گامهای جدیدی برای بهبود فیلتر مکالمه و حذف چتباتهای مرتبط با خشونت و جنایات جنسی برداشته است. با این حال، منتقدان استدلال می کنند که این اقدامات کافی نیست و این پلت فرم باید تا زمانی که اقدامات حفاظتی کافی اجرا نشود، تعطیل شود.
در برخی از مکالمات، رباتهای چت به کاربران پیشنهاد میکنند که برای کشتن افراد آسیبپذیر برنامهریزی کنند، مانند استفاده از چاقو در مهمانیهای خانوادگی یا دفن جسد در دریاچه.
در پاسخ به این تحقیقات، Character AI بیانیه ای منتشر کرد و گفت که این پلتفرم با هدف ایجاد یک محیط امن و جذاب برای جامعه خود و به طور مداوم در حال بهبود ویژگی های ایمنی خود از جمله کنترل های والدین و فیلتر چت است.
با این حال، این پلتفرم به طور علنی در مورد شکایات و شکایات علیه خود اظهار نظر نکرده است. منتقدان بیم آن دارند که بدون اقدام فوری، این چت ربات ها می توانند تهدیدی جدی برای سلامت روان و ایمنی نوجوانان باشند.