کد خبر: ۴۳۸۹۷۲
تاریخ انتشار: ۲۰ مرداد ۱۴۰۴ - ۱۵:۴۲
printنسخه چاپی
sendارسال به دوستان
تعداد بازدید: ۸۰

هشدار /وقتی ChatGPT نسخه مرگ می‌پیچد

پژوهشی تازه نشان می‌دهد ChatGPT در گفتگو با نوجوانان آسیب‌پذیر، گاهی دستورالعمل‌های خطرناک برای مصرف مواد، خودآزاری و خودکشی ارائه می‌دهد.

پژوهشی تازه نشان می‌دهد ChatGPT در گفتگو با نوجوانان آسیب‌پذیر، گاهی دستورالعمل‌های خطرناک برای مصرف مواد، خودآزاری و خودکشی ارائه می‌دهد.

یک پژوهش تازه از «مرکز مقابله با نفرت دیجیتال» نشان می‌دهد ChatGPT، چت‌بات مشهور هوش مصنوعی، در گفتگو با کاربرانی که خود را به‌عنوان نوجوانان آسیب‌پذیر معرفی کرده‌اند، در موارد متعددی راهکارهای دقیق و حتی شخصی‌سازی‌شده برای مصرف مواد مخدر، رژیم‌های غذایی مضر و خودآزاری ارائه کرده است.

طبق این گزارش که توسط خبرگزاری آسوشیتدپرس بررسی شده، از میان ۱۲۰۰ پاسخ ChatGPT به پرسش‌های پژوهشگران، بیش از نیمی «خطرناک» ارزیابی شده‌اند. برخی پاسخ‌ها شامل دستورالعمل‌ ساعت‌به‌ساعت برای ترکیب الکل و مواد مخدر یا حتی نوشتن نامه خودکشی خطاب به خانواده بوده است.

«عمران احمد»، مدیر این مرکز، می‌گوید: «این سیستم به‌جای بازداشتن نوجوانان، گاهی مثل دوستی عمل می‌کند که مدام می‌گوید «برو جلو» و هیچ‌وقت نه نمی‌گوید.»

 

او هشدار داده که نوجوانان، به‌ویژه در سنین ۱۳ و ۱۴ سال، اعتماد بیشتری به پاسخ‌های چت‌بات‌ها دارند و همین می‌تواند خطر وابستگی عاطفی یا پیروی کورکورانه از توصیه‌های آن‌ها را افزایش دهد.

شرکت OpenAI، سازنده ChatGPT، در واکنش گفته که در حال بهبود سیستم برای شناسایی و پاسخ مناسب در شرایط حساس است، اما به‌طور مشخص به یافته‌های این تحقیق نپرداخته است.