اخبار

در اینجا نحوه برنامه ریزی OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده است

در اینجا نحوه برنامه ریزی OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده است

در 31 مه، OpenAI تلاش های خود را برای افزایش قابلیت حل مسئله ریاضی ChatGPT اعلام کرد، با هدف کاهش موارد هوش مصنوعی (AI) توهمات. OpenAI بر کاهش توهمات به عنوان گامی مهم در جهت توسعه هوش مصنوعی همسو تاکید کرد.

در ماه مارس، معرفی آخرین نسخه ChatGPT – ChatGPT-4 – هوش مصنوعی را بیشتر به جریان اصلی تبدیل کرد. با این حال، چت ربات‌های مولد هوش مصنوعی مدت‌هاست که با دقت واقعی دست و پنجه نرم می‌کنند، و گهگاه اطلاعات نادرستی تولید می‌کنند که معمولاً به آن «توهم» می‌گویند. تلاش‌ها برای کاهش این توهمات هوش مصنوعی اعلام شد از طریق پستی در وب سایت OpenAI.

توهمات هوش مصنوعی به مواردی اشاره دارد که سیستم های هوش مصنوعی خروجی های واقعی نادرست، گمراه کننده یا پشتیبانی نشده توسط داده های دنیای واقعی ایجاد کنید. این توهمات می توانند به اشکال مختلفی مانند تولید اطلاعات نادرست، ساختن رویدادها یا افراد غیرموجود یا ارائه جزئیات نادرست در مورد موضوعات خاص ظاهر شوند.

OpenAI انجام برای بررسی اثربخشی دو نوع بازخورد: “نظارت بر نتیجه” و “نظارت بر فرآیند”. نظارت بر نتیجه شامل بازخورد بر اساس نتیجه نهایی است، در حالی که نظارت فرآیند ورودی برای هر مرحله در یک زنجیره فکری فراهم می کند. . OpenAI این مدل‌ها را با استفاده از مسائل ریاضی، ایجاد راه‌حل‌های متعدد و انتخاب راه‌حل با بالاترین رتبه با توجه به هر مدل بازخورد، ارزیابی کرد.

پس از تجزیه و تحلیل کامل، تیم تحقیقاتی دریافتند که نظارت بر فرآیند عملکرد برتری را به همراه دارد، زیرا این راه‌حل را تشویق می‌کند. مدلی برای پایبندی به فرآیند تایید شده توسط انسان. در مقابل، نظارت بر نتیجه برای بررسی مداوم چالش‌برانگیزتر بود.

OpenAI تشخیص داد که پیامدهای نظارت بر فرآیند فراتر از ریاضیات است و تحقیقات بیشتر برای درک تأثیرات آن در حوزه‌های مختلف ضروری است. این احتمال را بیان می‌کند که اگر نتایج مشاهده‌شده در زمینه‌های وسیع‌تری وجود داشته باشند، نظارت فرآیند می‌تواند ترکیب مطلوبی از عملکرد و همسویی را در مقایسه با نظارت بر نتیجه ارائه دهد. برای تسهیل تحقیقات، شرکت مجموعه داده های کامل نظارت بر فرآیند را به صورت عمومی منتشر کرد و از اکتشاف و مطالعه در این زمینه دعوت کرد.

مرتبط: تقاضای هوش مصنوعی برای مدت کوتاهی انویدیا را به کلوپ 1T دلاری منجنیق می کند

اگرچه OpenAI مصادیق صریحی را ارائه نکرد که باعث تحقیقاتش در مورد توهم شود، دو رویداد اخیر نمونه ای از این مشکل در سناریوهای زندگی واقعی بود.

در یک حادثه اخیر، وکیل دادگستری استیون شوارتز در پرونده Mata vs. Avianca Airlines تأیید کرد با تکیه بر ربات چت به عنوان یک منبع تحقیقاتی. با این حال، معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملاً ساختگی است و این موضوع را برجسته می کند.

ChatGPT OpenAI تنها نمونه ای از سیستم های هوش مصنوعی نیست که با توهم مواجه می شوند. هوش مصنوعی Bing مایکروسافت طی نمایش فناوری چت بات خود در ماه مارس چت بات گزارش های درآمد را بررسی کرد و ارقام نادرستی برای شرکت هایی مانند Gap و Lululemon تولید کرد.

مجله: 25 هزار معامله‌گر روی سهام ChatGPT شرط می‌بندند، هوش مصنوعی در پرتاب تاس‌ها و موارد دیگر شرط‌بندی می‌کند

در اینجا نحوه برنامه ریزی OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده استاخبارAI, ChatGPT, اقتباس, تکنولوژی, کسب و کار1402-03-11

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

دکمه بازگشت به بالا