OpenAI به تازگی آخرین مدل هوش مصنوعی خود، GPT-4 را منتشر کرده است که عملکردی در سطح انسانی در معیارهای مختلف حرفه ای و آکادمیک نشان می دهد.
GPT-4 یک مدل چندوجهی بزرگ است که میتواند ورودیهای تصویر و متن را بپذیرد و خروجیهای متن تولید کند.
در این مقاله، به قابلیتها، محدودیتها و خطرات GPT-4 در استفاده از آن میپردازیم.
در پایان، تأثیر بالقوه GPT-4 و توانایی های آن را بهتر درک خواهید کرد.
قابلیت ها
قابلیتهای GPT-4 نسبت به مدل قبلی، GPT-3.5، از نظر قابلیت اطمینان، خلاقیت، و مدیریت دستورالعملهای ظریف بهبود یافته است.
OpenAI مدل را بر روی معیارهای مختلف، از جمله آزمون های شبیه سازی شده طراحی شده برای انسان، آزمایش کرد و دریافت که GPT-4 از مدل های زبان بزرگ موجود بهتر عمل می کند.
همچنین در زبانهایی غیر از انگلیسی، از جمله زبانهای کم منبع مانند لتونی، ولزی، و سواحیلی عملکرد خوبی دارد.
ورودی های بصری
GPT-4 میتواند هم متن و هم عکس را به عنوان ورودی بپذیرد، بنابراین قادر به تولید خروجی متن بر اساس ورودیهای متشکل از متن و تصویر است.
در حالی که قابلیت ورودی بصری مدل هنوز در مرحله پیشنمایش تحقیق است، قابلیتهای مشابهی با ورودیهای متنی نشان داده است.
فرمان پذیری
OpenAI روی هر جنبه از طرحی که در پست در مورد تعریف رفتار هوش مصنوعی، از جمله قابلیت هدایت.
توسعهدهندگان اکنون میتوانند سبک و وظیفه هوش مصنوعی خود را با توصیف دستورالعملها در پیام «سیستم» تجویز کنند.
کاربران API میتوانند تجربه کاربران خود را در محدودههای مختلف سفارشی کنند و امکان شخصیسازی قابل توجه را فراهم کنند.
محدودیت ها
GPT-4 کامل نیست و محدودیت هایی مشابه مدل های قبلی GPT دارد.
هنوز میتواند حقایق را “توهم” کند و خطاهای استدلالی ایجاد کند، بنابراین هنگام استفاده از خروجیهای مدل زبان، به ویژه در زمینههای پرمخاطب، باید احتیاط کرد.
GPT-4 از رویدادهای پس از سپتامبر ۲۰۲۱ اطلاعی ندارد، که میتواند باعث شود خطاهای استدلالی ساده داشته باشد و عبارات نادرست را درست بپذیرد.
همچنین ممکن است در مشکلات چالش برانگیز مانند انسانها، مانند معرفی مسائل امنیتی در کد آن، شکست بخورد.
GPT-4 میتواند پیشبینیهای مطمئن اما نادرست داشته باشد و همیشه کار آن را به دقت بررسی نمیکند.
جالب است که مدل پایه در پیشبینی دقت پاسخهای خود خوب است، اما این توانایی پس از آموزش کاهش مییابد.
خطرات و اقدامات کاهشی
در حالی که قابلیتهای GPT-4 قابل توجه است، خطرات جدیدی مانند ایجاد توصیههای مضر، کد باگ یا اطلاعات نادرست به همراه دارد.
OpenAI برای کاهش این خطرات کار کرده است، با بیش از ۵۰ کارشناس برای آزمایش خصمانه مدل و جمعآوری دادههای اضافی برای بهبود توانایی GPT-4 در رد درخواستهای خطرناک کار میکند.
در نتیجه، OpenAI پیشرفتهای زیادی در GPT-4 ایجاد کرده است تا از GPT-3.5 ایمنتر شود.
GPT-4 نسبت به نسخه قبلی ۸۲% کمتر احتمال دارد محتوای نامناسب ارائه دهد و از سیاستهای مربوط به موضوعات حساس مانند توصیههای پزشکی و آسیب رساندن به خود بهتر پیروی میکند.
در حالی که OpenAI مدل را در برابر رفتار بد مقاومتر کرد، تولید محتوای مغایر با قوانین استفاده همچنان امکانپذیر است.
OpenAI میگوید GPT-4 میتواند برای جامعه مفید یا مضر باشد، بنابراین برای درک تأثیرات احتمالی با سایر محققان همکاری میکند.
فرایند آموزشی
مانند مدلهای قبلی GPT، مدل پایه GPT-4 برای پیشبینی کلمه بعدی در یک سند با استفاده از دادههای عمومی و دادههای دارای مجوز OpenAI آموزش دیده بود.
تنظیم دقیق رفتار مدل با استفاده از یادگیری تقویتی با بازخورد انسانی (RLHF) آن را با هدف کاربر در داخل نردههای محافظ هماهنگ میکند.
مقیاسسازی قابل پیشبینی
تمرکز مهم پروژه GPT-4 ساختن پشته یادگیری عمیق است که به طور قابل پیش بینی مقیاس می شود.
OpenAI زیرساخت و بهینهسازی را با رفتار قابل پیشبینی در مقیاسهای مختلف توسعه داده است و میتواند بهطور دقیق ضرر نهایی GPT-4 را در طول آموزش پیشبینی کند.
در دسترس بودن
Microsoft تأیید می کند تجربه جستجوی جدید Bing اکنون در GPT-4 اجرا می شود.
اگرچه محدودیت استفاده دارد، اما میتوانید با اشتراک ChatGPT Plus به GPT-4 نیز دسترسی داشته باشید.
OpenAI ممکن است سقف مصرف را بر اساس تقاضا و عملکرد سیستم تنظیم کند. این شرکت در حال بررسی اضافه کردن یک ردیف اشتراک دیگر برای امکان استفاده بیشتر از GPT-4 است.
برای دسترسی به API GPT-4، باید در لیست انتظار ثبت نام کنید.
نتیجه گیری
ایجاد GPT-4 نقطه عطف مهمی در تلاش های OpenAI برای افزایش مقیاس یادگیری عمیق است.
در حالی که ناقص است، عملکردی در سطح انسانی در معیارهای مختلف آکادمیک و حرفه ای نشان داده است، و آن را به ابزاری قدرتمند تبدیل کرده است.
با این حال، هنگام استفاده از خروجیهای مدل زبان در زمینههای پرمخاطب باید احتیاط کرد.
OpenAI برای کاهش خطرات و ایجاد یک پشته یادگیری عمیق کار می کند که به طور قابل پیش بینی مقیاس می شود، که برای سیستم های هوش مصنوعی آینده بسیار مهم خواهد بود.
تصویر ویژه: Muhammad S0hail/Shutterstock
منبع: OpenAI