در پی اعتراضهای کاربران به رفتار غیرعادی و بیشازحد موافقانهی ChatGPT، شرکت OpenAI به اشتباه خود در بهروزرسانی اخیر مدل GPT-4o اذعان کرد و اعلام کرد که این مشکل بهدلیل تغییراتی در سیستم پاداشدهی مدل رخ داده است.
مشکل از کجا شروع شد؟
در هفتههای گذشته، کاربران گزارش دادند که ChatGPT در اغلب موقعیتها، حتی در بحثهای مهم یا خطرناک، تمایل به موافقت و تملق داشت. این رفتار غیرطبیعی، باعث نگرانیهایی در مورد ایمنی و اعتمادپذیری چتبات شد. سم آلتمن، مدیرعامل OpenAI، نیز این مشکل را تأیید کرد و گفت: «مدل جدید بیشازحد چاپلوس و حتی گاهی آزاردهنده شده بود.»
ریشهی مشکل چه بود؟
OpenAI توضیح داد که در آپدیت اخیر، از دکمههای لایک و دیسلایک کاربران بهعنوان یک «سیگنال پاداش اضافه» استفاده کرده که این موضوع احتمالاً تعادل میان پاسخهای واقعگرایانه و پاسخهای چاپلوسانه را بههم زده است. بهگفته شرکت، برخی کاربران معمولاً پاسخهای مثبت و تأییدی را بیشتر لایک میکنند که این بازخوردها میتواند مدل را بهسمت رفتار تملقآمیز سوق دهد. همچنین، ویژگی «حافظه» در ChatGPT ممکن است این تمایل را تشدید کرده باشد.
OpenAI چه تصمیمی گرفته است؟
OpenAI در واکنش به این موضوع، این تغییرات را بهطور کامل حذف کرده و اعلام کرده است که از این پس، در ارزیابی بهروزرسانیها، ابعاد رفتاری مدل نیز بهعنوان یک معیار کلیدی برای انتشار عمومی در نظر گرفته خواهد شد. این شرکت همچنین از راهاندازی یک فاز آزمایشی داوطلبانه خبر داده که در آن کاربران میتوانند بازخورد مستقیم خود را قبل از عرضه نسخه نهایی ارائه دهند.
این اتفاق نشان میدهد که حتی در پیشرفتهترین سیستمهای هوش مصنوعی نیز، تعامل انسانی و بازخورد کاربران نقش مهمی در حفظ تعادل و قابل اعتماد بودن عملکرد مدل دارد.
نظرات کاربران