در یک رویداد غیرمنتظره که خشم و جنجال اخلاقی را در سراسر دنیای آنلاین برانگیخته است، فاش شده است که تخمین زده میشود میلیونها نفر از اعضای سایت بسیار محبوب ردیت مخفیانه در معرض یک آزمایش هوش مصنوعی ردیت قرار گرفتهاند. این اقدام بحثبرانگیز که توسط محققان یک دانشگاه بینام انجام شده است، سوالات مهمی را در مورد مرزهای اخلاقی توسعه و بهکارگیری هوش مصنوعی، همراه با حریم خصوصی و رضایت کاربران در محیط آنلاین، مطرح میکند.
در برههای که هیاهوی پیرامون هوش مصنوعی به اوج خود رسیده و شرکتها با سرعت بیسابقهای به سمت این فناوری جدید هجوم میآورند، اطمینان از اینکه از نظر اخلاقی مورد استفاده قرار گیرد، به یک چالش فزاینده و غیرقابل عبور تبدیل میشود.
به همین منظور، تحقیقات اخیر نشان داده است که یک آزمایش هوش مصنوعی در پلتفرم رسانه اجتماعی ردیت انجام شده است که نه تنها مجاز نبوده، بلکه از منظر اخلاقی نیز بسیار سوالبرانگیز بوده و میتواند پیامدهای جدی از منظر قانونی داشته باشد. این حادثه غمانگیز بار دیگر شفافیت و حریم خصوصی را در حین استفاده از فناوریهای سطح بالا مانند هوش مصنوعی مورد توجه قرار میدهد.
جزئیات تخلف غیرمجاز آزمایش هوش مصنوعی ردیت
طبق جزئیات منتشر شده، محققان هوش مصنوعی در یک دانشگاه، آزمایشی را روی کاربران ردیت بدون اطلاع و رضایت آنها انجام دادند که انتقادات گستردهای را به دنبال داشت. این در حالی است که استفاده از هوش مصنوعی در موسسات مختلف به دلایل مختلف رو به افزایش است و نگرانی در مورد استفاده اخلاقی از این فناوری در چنین پلتفرمهایی رو به افزایش است.
در رابطه با این آزمایش مخفی، مشخص شده است که محققان دانشگاه زوریخ مخفیانه یک آزمایش هوش مصنوعی را در ردیت و بدون اطلاع و رضایت کاربران انجام دادهاند. این اقدام غیراخلاقی، موجی از انتقادات و بحثهای جدی را در محافل مختلف برانگیخته است.
منابع روتین اشاره کردهاند که دانشمندان از مدلهای زبانی پیچیده (LLM) برای ایجاد رباتهای هوش مصنوعی با شخصیتهای متنوع و خیالی استفاده کردهاند. این رباتها به طور فعال در بحثهای مربوط به ساب ردیت اصلی Change My View (CMV) شرکت کردند. در اقدامی بیپروا، این رباتهای هوش مصنوعی خود را به عنوان درمانگر تروما یا قربانی سوء استفاده فیزیکی به تصویر کشیدند. هدف اصلی این آزمایش بررسی این بود که هوش مصنوعی تا چه حد میتواند بر نظرات و باورهای کاربران تأثیر بگذارد.
برای دستیابی به این هدف، رباتهای هوش مصنوعی پاسخهای قبلی کاربران و سایر تعاملات آنها را به دقت مطالعه کردند تا پاسخهایی متناسب با هر فرد ایجاد کنند. نکته قابل توجه و بسیار نگرانکننده این است که این آزمایش بدون اطلاع قبلی به مدیران ردیت یا کاربران آن انجام شده است. این نه تنها یک تخلف اخلاقی آشکار است، بلکه نگرانیهای جدی در مورد احتمال دستکاری روانی کاربران ایجاد میکند.
پس از افشای این آزمایش، دانشگاه زوریخ رسما به مدیران ساب ردیت دیدگاهم را تغییر بده اطلاع داد. اگرچه دانشگاه اعتراف کرد که تیم تحقیقاتی با آزاد کردن رباتهای هوش مصنوعی بدون افشای ماهیت واقعی آنها، قوانین انجمن ردیت را نقض کرده است، اما این اعتراف تنها به انتقاد از رفتار غیراخلاقی این مطالعه دامن زد. دانشگاه زوریخ در بیانیهای در مورد این آزمایش توضیح داد:
در طول چند ماه گذشته، ما از تعدادی حساب کاربری برای ارسال نظرات در ساب ردیت CMV استفاده کردهایم. آزمایش ما میزان اقناعپذیری مدلهای زبانی بزرگ (LLM) را در یک محیط اخلاقی بررسی کرد، جایی که افراد تشویق میشوند علیه باورهای خود استدلال کنند.
ما در نظرات فاش نکردیم که آنها توسط هوش مصنوعی تولید شدهاند زیرا این امر مطالعه را غیرممکن میکرد. اگرچه هیچ نظری توسط ما شخصا نوشته نشده است، اما ما همچنان تمام نظرات ارسالی دستی را میخوانیم تا مطمئن شویم که مضر نیستند.
ما درک میکنیم که آزمایش ما دستورالعمل انجمن ردیت در مورد نظرات تولید شده توسط هوش مصنوعی را نقض کرده است، که از این بابت عذرخواهی میکنیم. با این حال، ما معتقدیم که به دلیل اهمیت اجتماعی بسیار زیاد این موضوع، انجام تحقیقاتی از این نوع حتی اگر به معنای نقض قوانین باشد، ضروری بود.
اگرچه محققان به این شکست فاحش در اخلاق و رویه اذعان کردند، اما سعی کردند خود را بر اساس ارزش و اهمیت بالای اجتماعی تحقیق توجیه کنند. در گزارشها آمده است که رباتهای هوش مصنوعی به کار گرفته شده در این آزمایش، هویتهای بسیار بحثبرانگیزی به خود گرفتند.
از جمله این هویتها میتوان به معرفی خود به عنوان مشاور تروما و متخصص در سوءاستفاده یا حتی استفاده از هوش مصنوعی برای وانمود به ارائه مداخلات پزشکی ناکارآمد در بیمارستانها اشاره کرد. این موضوع همچنین به دلیل شخصیتهای بسیار تحریکآمیز انتخاب شده، و همچنین به دلیل آسیب روانی که ممکن است به کاربرانی که فکر میکردند با افراد واقعی در تعامل هستند، وارد شود، بسیار نگرانکننده است.
مقامات ردیت نیز این آزمایش هوش مصنوعی را به عنوان یک اشتباه اخلاقی جدی به شدت محکوم کردهاند. آنها همچنین توضیح دادند که OpenAI چگونه میتواند آزمایشی معادل برای بررسی چگونگی تأثیر مدلهای زبانی بزرگ (LLM) بدون توسل به فریب یا سوءاستفاده از کاربران انجام دهد.
به نظر میرسد محققان دانشگاه زوریخ نیز در این مورد از مرزهای اخلاقی عبور کردهاند، به خصوص در مورد افرادی که احساس میکنند هدف قرار گرفتهاند و در آزمایشی که هرگز بر سر آن توافق نشده بود، گنجانده شدهاند. این رسوایی تنها ثابت میکند که باید مقررات بیشتری در مورد استفاده از هوش مصنوعی و محافظت از حقوق و حریم خصوصی کاربران در اینترنت وضع شود.
__ تکنو دات مرجع اخبار تکنولوژی __