در اینجا نحوه برنامه ریزی OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده است
در اینجا نحوه برنامه ریزی OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده است
در 31 مه، OpenAI تلاش های خود را برای افزایش قابلیت حل مسئله ریاضی ChatGPT اعلام کرد، با هدف کاهش موارد هوش مصنوعی (AI) توهمات. OpenAI بر کاهش توهمات به عنوان گامی مهم در جهت توسعه هوش مصنوعی همسو تاکید کرد.
در ماه مارس، معرفی آخرین نسخه ChatGPT – ChatGPT-4 – هوش مصنوعی را بیشتر به جریان اصلی تبدیل کرد. با این حال، چت رباتهای مولد هوش مصنوعی مدتهاست که با دقت واقعی دست و پنجه نرم میکنند، و گهگاه اطلاعات نادرستی تولید میکنند که معمولاً به آن «توهم» میگویند. تلاشها برای کاهش این توهمات هوش مصنوعی اعلام شد از طریق پستی در وب سایت OpenAI.
توهمات هوش مصنوعی به مواردی اشاره دارد که سیستم های هوش مصنوعی خروجی های واقعی نادرست، گمراه کننده یا پشتیبانی نشده توسط داده های دنیای واقعی ایجاد کنید. این توهمات می توانند به اشکال مختلفی مانند تولید اطلاعات نادرست، ساختن رویدادها یا افراد غیرموجود یا ارائه جزئیات نادرست در مورد موضوعات خاص ظاهر شوند.
OpenAI انجام برای بررسی اثربخشی دو نوع بازخورد: “نظارت بر نتیجه” و “نظارت بر فرآیند”. نظارت بر نتیجه شامل بازخورد بر اساس نتیجه نهایی است، در حالی که نظارت فرآیند ورودی برای هر مرحله در یک زنجیره فکری فراهم می کند. . OpenAI این مدلها را با استفاده از مسائل ریاضی، ایجاد راهحلهای متعدد و انتخاب راهحل با بالاترین رتبه با توجه به هر مدل بازخورد، ارزیابی کرد.
پس از تجزیه و تحلیل کامل، تیم تحقیقاتی دریافتند که نظارت بر فرآیند عملکرد برتری را به همراه دارد، زیرا این راهحل را تشویق میکند. مدلی برای پایبندی به فرآیند تایید شده توسط انسان. در مقابل، نظارت بر نتیجه برای بررسی مداوم چالشبرانگیزتر بود.
OpenAI تشخیص داد که پیامدهای نظارت بر فرآیند فراتر از ریاضیات است و تحقیقات بیشتر برای درک تأثیرات آن در حوزههای مختلف ضروری است. این احتمال را بیان میکند که اگر نتایج مشاهدهشده در زمینههای وسیعتری وجود داشته باشند، نظارت فرآیند میتواند ترکیب مطلوبی از عملکرد و همسویی را در مقایسه با نظارت بر نتیجه ارائه دهد. برای تسهیل تحقیقات، شرکت مجموعه داده های کامل نظارت بر فرآیند را به صورت عمومی منتشر کرد و از اکتشاف و مطالعه در این زمینه دعوت کرد.
مرتبط: تقاضای هوش مصنوعی برای مدت کوتاهی انویدیا را به کلوپ 1T دلاری منجنیق می کند
اگرچه OpenAI مصادیق صریحی را ارائه نکرد که باعث تحقیقاتش در مورد توهم شود، دو رویداد اخیر نمونه ای از این مشکل در سناریوهای زندگی واقعی بود.
در یک حادثه اخیر، وکیل دادگستری استیون شوارتز در پرونده Mata vs. Avianca Airlines تأیید کرد با تکیه بر ربات چت به عنوان یک منبع تحقیقاتی. با این حال، معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملاً ساختگی است و این موضوع را برجسته می کند.
ChatGPT OpenAI تنها نمونه ای از سیستم های هوش مصنوعی نیست که با توهم مواجه می شوند. هوش مصنوعی Bing مایکروسافت طی نمایش فناوری چت بات خود در ماه مارس چت بات گزارش های درآمد را بررسی کرد و ارقام نادرستی برای شرکت هایی مانند Gap و Lululemon تولید کرد.
مجله: 25 هزار معاملهگر روی سهام ChatGPT شرط میبندند، هوش مصنوعی در پرتاب تاسها و موارد دیگر شرطبندی میکند
در اینجا نحوه برنامه ریزی OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده استاخبارAI, ChatGPT, اقتباس, تکنولوژی, کسب و کار1402-03-11