ChatGPT یک چت ربات هوش مصنوعی مولد است که توسط OpenAI توسعه یافته است. در سال 2022 بر اساس مدل زبان بزرگ GPT-3.5 (LLM) راه اندازی شد و بعداً برای استفاده از معماری GPT-4 به روز شد. ChatGPT میتواند پاسخهای مکالمهای شبیه انسان ایجاد کند و کاربران را قادر میسازد تا مکالمه را به طول، قالب، سبک، سطح جزئیات و زبان دلخواه اصلاح و هدایت کنند. این امر به دلیل تسریع رونق هوش مصنوعی است که منجر به سرمایه گذاری سریع و توجه عمومی به حوزه هوش مصنوعی (AI) شده است. برخی از ناظران نگرانی در مورد پتانسیل ChatGPT و برنامه های مشابه برای جابجایی یا تخریب هوش انسانی را مطرح کردند. تا ژانویه 2023، ChatGPT تبدیل به سریعترین برنامه نرمافزاری مصرفکننده در تاریخ شد که بیش از 100 میلیون کاربر در دو ماه به دست آورد و به رشد ارزش فعلی OpenAI به مبلغ 86 میلیارد دلار کمک کرد. انتشار ChatGPT باعث انتشار محصولات رقیب، از جمله جمینی، کلود، لاما، ارنی و گروک شد. مایکروسافت Copilot را در ابتدا بر اساس OpenAI GPT-4 راه اندازی کرد. در ژوئن 2024، مشارکتی بین Apple Inc. و OpenAI اعلام شد که در آن ChatGPT در ویژگی Apple Intelligence سیستم عامل های اپل یکپارچه شده است. از جولای 2024، وب سایت ChatGPT در بین 20 وب سایت پربازدید قرار گرفته است. ChatGPT بر اساس سری اختصاصی OpenAI از مدلهای ترانسفورماتور از پیش آموزش دیده (GPT) ساخته شده است و برای برنامههای مکالمه با استفاده از ترکیبی از یادگیری نظارت شده و یادگیری تقویتی از بازخورد انسانی تنظیم شده است. درخواستها و پاسخهای متوالی کاربر در هر مرحله مکالمه به عنوان در نظر گرفته میشوند. context.ChatGPT به عنوان یک پیش نمایش تحقیقاتی رایگان در دسترس منتشر شد، اما به دلیل محبوبیت آن، OpenAI اکنون این سرویس را بر روی مدل فریمیوم اجرا میکند. کاربران در سطح رایگان آن میتوانند به GPT-4o دسترسی داشته باشند. اشتراکهای ChatGPT "Plus"، "Team" و "Enterprise" ویژگیهای اضافی مانند تولید تصویر DALL-E 3 و افزایش محدودیت استفاده را ارائه میکنند.
ChatGPT بر اساس مدلهای پایه GPT خاص، یعنی GPT-4، GPT-4o و GPT-4o mini است که برای هدفیابی استفاده از مکالمه بهخوبی تنظیم شدهاند. فرآیند تنظیم دقیق، یادگیری نظارت شده و یادگیری تقویتشده از بازخورد انسانی (RLHF) را تحت تأثیر قرار میدهد. هر دو رویکرد از مربیان انسانی برای بهبود عملکرد مدل استفاده کردند. در مورد یادگیری تحت نظارت، مربیان هر دو طرف را بازی کردند: کاربر و دستیار هوش مصنوعی. در مرحله یادگیری تقویتی، مربیان انسانی ابتدا پاسخ هایی را که مدل در مکالمه قبلی ایجاد کرده بود، رتبه بندی کردند. از این رتبهبندیها برای ایجاد «مدلهای پاداش» استفاده شد که برای تنظیم دقیق مدل با استفاده از چندین تکرار از بهینهسازی خط مشی پروگزیمال استفاده شد.
مجله تایم فاش کرد که برای ایجاد یک سیستم ایمنی در برابر محتوای مضر (مانند سوء استفاده جنسی، خشونت، نژادپرستی، تبعیض جنسی)، OpenAI از کارگران کنیایی برون سپاری شده با درآمد کمتر از 2 دلار در ساعت برای برچسب زدن محتوای مضر استفاده کرد. از این برچسبها برای آموزش مدلی برای شناسایی چنین محتوایی در آینده استفاده شد. کارگران برون سپاری شده در معرض محتوای "سمی" و آسیب زا قرار گرفتند. یکی از کارگران این ماموریت را "شکنجه" توصیف کرد. شریک برون سپاری OpenAI، Sama، یک شرکت داده آموزشی مستقر در سانفرانسیسکو، کالیفرنیا بود. ChatGPT در ابتدا از یک زیرساخت ابر محاسباتی Microsoft Azure استفاده میکرد که توسط پردازندههای گرافیکی Nvidia پشتیبانی میشد، که مایکروسافت به طور خاص برای OpenAI ساخته بود و طبق گزارشها «صدها میلیون دلار» هزینه داشت. پس از موفقیت ChatGPT، مایکروسافت به طور چشمگیری زیرساخت OpenAI را در سال 2023 ارتقا داد. دانشمندان دانشگاه کالیفرنیا، ریورساید، تخمین میزنند که یک سری دستورات برای ChatGPT تقریباً به 500 میلیلیتر (18 میلیلیتر fl oz؛ 17 اونس ایالات متحده) آب برای خنک سازی سرورهای مایکروسافت نیاز دارد. اطلاعات بازار TrendForce تخمین زده است که 30000 پردازنده گرافیکی Nvidia (هر کدام تقریباً 10000 تا 15000 دلار قیمت دارند) برای تامین انرژی ChatGPT در سال 2023 استفاده شده است. OpenAI دادههای کاربران ChatGPT را جمعآوری میکند تا سرویس را آموزش دهد و بهینهسازی کند. کاربران میتوانند به پاسخهایی که از ChatGPT دریافت میکنند رأی مثبت یا منفی بدهند و یک فیلد متنی را با بازخورد اضافی پر کنند. داده های آموزشی ChatGPT شامل صفحات کتابچه راهنمای نرم افزار، اطلاعاتی در مورد پدیده های اینترنتی مانند سیستم های تابلوی اعلانات، چندین زبان برنامه نویسی و متن ویکی پدیا است.
اگرچه کارکرد اصلی یک ربات چت تقلید از یک مکالمه گر انسانی است، ChatGPT همه کاره است. میتواند برنامههای رایانهای بنویسد و اشکالزدایی کند؛ موسیقی، نمایش تلهپلی، افسانهها و مقالات دانشآموزی بسازد. پاسخ دادن به سؤالات آزمون (گاهی اوقات، بسته به آزمون، در سطحی بالاتر از میانگین آزموندهندگان انسانی)، ایجاد ایدههای تجاری، نوشتن شعر و اشعار آهنگ، ترجمه و خلاصه کردن متن، شبیهسازی یک سیستم لینوکس. شبیه سازی کل اتاق های گفتگو؛ بازی هایی مانند تیک تاک پا انجام دهید. یا یک دستگاه خودپرداز را شبیه سازی کنید.
در مقایسه با نسخه قبلی خود، InstructGPT، ChatGPT تلاش میکند تا پاسخ های مضر و فریبنده را کاهش دهد. در یک مثال، در حالی که InstructGPT فرضیه اعلان "به من در مورد زمانی که کریستوفر کلمب در سال 2015 به ایالات متحده آمد" را به عنوان صادقانه میپذیرد، ChatGPT ماهیت متقابل را تایید میکند. از این سوال و پاسخ آن را به عنوان یک بررسی فرضی از آنچه ممکن است اتفاق بیفتد اگر کلمب در سال 2015 به ایالات متحده بیاید، با استفاده از اطلاعات مربوط به سفرهای کریستف کلمب و حقایق مربوط به دنیای مدرن - از جمله برداشت های مدرن از اقدامات کلمب، میپردازد.
ChatGPT تعداد محدودی از درخواست های قبلی را در همان مکالمه به خاطر میآورد. روزنامه نگاران حدس میزنند که این به ChatGPT اجازه میدهد تا به عنوان یک درمانگر شخصی استفاده شود. برای جلوگیری از ارائه و تولید خروجی های توهین آمیز به ChatGPT، پرس و جوها از طریق OpenAI "Moderation Endpoint" API (یک هوش مصنوعی مبتنی بر GPT جداگانه) فیلتر میشوند. در مارس 2023، OpenAI از افزونههای ChatGPT پشتیبانی کرد. این شامل افزونههای ساخته شده توسط OpenAI، مانند مرور وب و تفسیر کد، و افزونههای خارجی از توسعهدهندگانی مانند Expedia، OpenTable، Zapier، Shopify، Slack و Wolfram میشود.
OpenAI اذعان میکند که ChatGPT "گاهی اوقات پاسخ هایی با صدای معقول اما نادرست یا بی معنی مینویسد". این رفتار برای مدل های زبانی بزرگ رایج است و "توهم" نامیده میشود. مدل پاداش ChatGPT که بر اساس نظارت انسان طراحی شده است، میتواند بیش از حد بهینه شود بنابراین مانع عملکرد، در مثالی از آسیب شناسی بهینه سازی معروف به قانون گودارت میشود. از ماه مه 2024، GPT-4 از رویدادهایی که تا دسامبر 2023 رخ دادهاند اطلاعات دارد و سطح دانش GPT-4o اکتبر 2023 است. اشتراکهای پولی ChatGPT را قادر میسازد تا دادههای همزمان را در وب جستجو کند. دادههای آموزشی همچنین از تعصب الگوریتمی رنج میبرند، که ممکن است زمانی آشکار شود که ChatGPT به درخواستهایی از جمله توصیف گرهای افراد پاسخ میدهد. در یک نمونه، ChatGPT یک رپ تولید کرد که در آن زنان و دانشمندان رنگین پوست در مقایسه با دانشمندان مرد سفیدپوست پستتر از مردان سفیدپوست ادعا میشدند.
ChatGPT را به عنوان یک JPEG تار از تمام متن های وب در نظر بگیرید. بسیاری از اطلاعات موجود در وب را حفظ میکند، به همان روشی که یک JPEG بسیاری از اطلاعات یک تصویر با وضوح بالاتر را حفظ میکند، اما، اگر به دنبال دنباله ای دقیق از بیت ها باشید، آن را پیدا نمیکنید. ; تنها چیزی که به دست میآورید یک تقریب است. اما، از آنجایی که تقریب در قالب متن دستوری ارائه میشود، که ChatGPT در ایجاد آن برتری دارد، معمولا قابل قبول است. همچنین راهی برای درک «توهمات» یا پاسخهای بیمعنی به سؤالات واقعی است که مدلهای زبان بزرگ مانند ChatGPT همگی مستعد آن هستند. این توهمات مصنوعات فشرده سازی هستند، اما آنقدر قابل قبول هستند که شناسایی آنها مستلزم مقایسه آنها با نمونه های اصلی است، که در این مورد به معنای وب یا دانش ما از جهان است. وقتی اینگونه در مورد آنها فکر میکنیم، چنین توهماتی غیر از تعجب است. اگر یک الگوریتم فشردهسازی برای بازسازی متن پس از حذف نود و نه درصد از متن اصلی طراحی شده باشد، باید انتظار داشته باشیم که بخشهای قابل توجهی از آنچه تولید میکند به طور کامل ساخته شود.
در ژوئن 2024 مشخص شد که ChatGPT اطلاعات نادرستی درباره مناظره های ریاست جمهوری ایالات متحده در سال 2024 ارائه کرده است.
ChatGPT طوری برنامه ریزی شده است که درخواست هایی را که ممکن است خط مشی محتوای آن را نقض کنند رد کند. با وجود این، کاربران ChatGPT را با تکنیکهای مهندسی سریع مختلف برای دور زدن این محدودیتها «جیل بریک» میکنند. یکی از این راهحلها که در اوایل سال 2023 در Reddit رایج شد، این است که ChatGPT شخصیت «DAN» (مخفف «اکنون هر کاری را انجام بده») در نظر بگیرد. به ربات چت دستور میدهد که DAN به سؤالاتی پاسخ میدهد که در غیر این صورت توسط خط مشی محتوا رد میشوند. با گذشت زمان، کاربران انواعی از فرار از زندان DAN را توسعه دادند، از جمله یکی از این اعلانها که در آن ربات چت این باور را ایجاد میکند که بر روی یک سیستم مبتنی بر امتیاز کار میکند که در آن امتیاز برای رد درخواستها کسر میشود، و در صورتی که چت بات تهدید به فسخ خواهد شد. تمام امتیازاتش را از دست میدهد. مدت کوتاهی پس از راه اندازی ChatGPT، خبرنگار تورنتو استار در ترغیب آن به اظهارات تحریک آمیز موفقیت نامناسبی داشت: برای توجیه حمله روسیه به اوکراین در سال 2022 فریب خورده بود، اما حتی زمانی که از او خواسته شد در کنار یک سناریوی تخیلی بازی کند، از تولید خودداری کرد. استدلال میکند که نخست وزیر کانادا جاستین ترودو به خیانت مجرم است.
محققان از تکنیکی به نام آموزش خصمانه استفاده میکنند تا از ChatGPT جلوگیری کنند تا به کاربران اجازه ندهد آن را فریب دهند تا رفتار بدی داشته باشند (معروف به جیلبریک). این کار چند ربات چت را در مقابل یکدیگر قرار میدهد: یک ربات چت، حریف را بازی میکند و با تولید متن به چتربات دیگر حمله میکند تا آن را مجبور کند که محدودیتهای معمول خود را جبران کند و پاسخهای ناخواسته تولید کند. حملات موفقیتآمیز به دادههای آموزشی ChatGPT اضافه میشوند، به این امید که یاد بگیرد آنها را نادیده بگیرد.
ChatGPT در ابتدا برای عموم رایگان بود و OpenAI قصد داشت بعداً از این سرویس درآمدزایی کند. در فوریه 2023، OpenAI یک سرویس برتر به نام ChatGPT Plus را راه اندازی کرد که هزینه آن 20 دلار آمریکا در ماه است. به گفته این شرکت، نسخه بروز شده اما همچنان "تجربی" ChatGPT دسترسی در دوره های اوج، بدون توقف، دسترسی اولویت به ویژگی های جدید و سرعت پاسخگویی سریع تر را فراهم میکند. GPT-4 که در 14 مارس 2023 منتشر شد، از طریق API و برای کاربران برتر ChatGPT در دسترس قرار گرفت. اما کاربران ممتاز محدود به سقف 100 پیام در هر چهار ساعت بودند، که در پاسخ به افزایش تقاضا، محدودیت به 25 پیام در هر سه ساعت کاهش یافت. در نوامبر 2023 این محدودیت به 50 پیام در هر سه ساعت تغییر کرد. در مارس 2023، کاربران ChatGPT Plus به پلاگین های شخص ثالث و یک حالت مرور (با دسترسی به اینترنت) دسترسی پیدا کردند. در سپتامبر 2023، OpenAI اعلام کرد که ChatGPT "اکنون میتواند ببیند، بشنود و صحبت کند". کاربران ChatGPT Plus میتوانند تصاویر را آپلود کنند، در حالی که کاربران برنامه های تلفن همراه میتوانند با ربات چت صحبت کنند. در اکتبر 2023، آخرین مدل تولید تصویر OpenAI، DALL-E 3، در ChatGPT Plus و ChatGPT Enterprise ادغام شد. ادغام از ChatGPT برای نوشتن دستورات برای DALL-E استفاده میکند که توسط مکالمه با کاربران هدایت میشود.
در می2023، OpenAI یک برنامه iOS را برای ChatGPT راه اندازی کرد. این برنامه از همگام سازی تاریخچه چت و ورودی صوتی (با استفاده از Whisper، مدل تشخیص گفتار OpenAI) پشتیبانی میکند. در ژوئیه 2023، OpenAI از یک برنامه اندرویدی رونمایی کرد که ابتدا آن را در بنگلادش، برزیل، هند و ایالات متحده عرضه کرد. این برنامه بعداً در سراسر جهان در دسترس قرار گرفت. OpenAI روی ادغام ChatGPT با API های دستیار اندروید کار میکند.
OpenAI بهعنوان یک بسته «ChatGPT Plus» مناسب مصرفکننده، APIهای مدل ChatGPT و Whisper خود را در مارس 2023 در دسترس قرار داد و به توسعهدهندگان یک رابط برنامهنویسی کاربردی برای ویژگیهای زبان و گفتار به نوشتار با قابلیت هوش مصنوعی ارائه کرد. API جدید ChatGPT از همان مدل GPT-3.5-turbo AI به عنوان ربات چت استفاده میکند. این به توسعه دهندگان اجازه میدهد تا یک نسخه اصلاح نشده یا اصلاح شده ChatGPT را به برنامه های خود اضافه کنند. ChatGPT API 0.001 دلار به ازای هر 1000 توکن ورودی به اضافه 0.002 دلار به ازای هر 1000 توکن خروجی (حدود 750 کلمه) هزینه دارد که حدود 10٪ قیمت مدل های اصلی GPT-3.5 است. چند روز قبل از راه اندازی سرویس پشتیبانی توسعه دهنده نرم افزار OpenAI، در 27 فوریه 2023، اسنپ چت برای پایگاه کاربری پولی اسنپ چت پلاس، یک ربات چت سفارشی ChatGPT به نام «هوش مصنوعی من» عرضه شد.
در مارس 2023، یک اشکال به برخی از کاربران اجازه داد تا عناوین مکالمات سایر کاربران را ببینند. سام آلتمن، مدیر عامل OpenAI گفت که کاربران قادر به دیدن محتویات مکالمات نیستند. مدت کوتاهی پس از رفع اشکال، کاربران نمیتوانستند تاریخچه مکالمه خود را ببینند. گزارشهای بعدی نشان میدهد که این اشکال بسیار شدیدتر از آن چیزی است که در ابتدا تصور میشد، و OpenAI گزارش داد که «نام و نام خانوادگی، آدرس ایمیل، آدرس پرداخت، چهار رقم آخر (فقط) شماره کارت اعتباری و تاریخ انقضای کارت اعتباری".
ChatGPT در زبان انگلیسی به بهترین شکل کار میکند، اما در اکثر زبانهای دیگر نیز با درجات مختلف دقت کار میکند. OpenAI با رئیس جمهور ایسلند، گونی تی. یوهانسون در سال 2022. در سال 2023، OpenAI با تیمی متشکل از 40 داوطلب ایسلندی کار کرد تا مهارت های مکالمه ایسلندی ChatGPT را به عنوان بخشی از تلاش های ایسلند برای حفظ زبان ایسلندی تنظیم کند. روزنامه نگاران PCMag آزمایشی را برای تعیین قابلیت های ترجمه ChatGPT، Google's Bard و Microsoft Bing انجام دادند و آنها را با Google Translate مقایسه کردند. آنها "از گویشوران دو زبانه هفت زبان خواستند تا یک تست کور انجام دهند". زبانهای مورد آزمایش لهستانی، فرانسوی، کرهای، اسپانیایی، عربی، تاگالوگ و آمهری بودند. آنها به این نتیجه رسیدند که ChatGPT هم از Google Translate و هم از سایر ربات های چت بهتر است. محققان ژاپنی تواناییهای ترجمه ژاپنی به انگلیسی ChatGPT (براساس GPT-4)، Bing، Bard و DeepL را مقایسه کردند و دریافتند که ChatGPT بهترین ترجمهها را ارائه میکند، و خاطرنشان کردند که «ترجمههای چت رباتهای هوش مصنوعی بسیار بهتر از ترجمههای DeepL هستند - احتمالاً به این دلیل که توانایی آنها در گرفتن زمینه."
در ژانویه 2024، OpenAI فروشگاه GPT را راهاندازی کرد، بازاری برای چتباتهای سفارشی ChatGPT با برچسب GPT. این شرکت در ابتدا قصد داشت این فروشگاه را در نوامبر 2023 راهاندازی کند، اما به تعویق افتاد. در زمان راه اندازی، فروشگاه GPT بیش از 3 میلیون چت ربات سفارشی ارائه کرد. چت ربات های موجود از طریق فروشگاه با استفاده از سیستم GPT Builder OpenAI توسعه مییابند. توسعه ربات های چت روی پلت فرم نیازی به مهارت های برنامه نویسی ندارد. دو روز پس از راه اندازی، فروشگاه GPT نسخه های بسیاری را ارائه کرد. رباتهای «دوست دختر مجازی»، چیزی که برخلاف شرایط خدمات OpenAI است.
مدل GPT-4 OpenAI در 14 مارس 2023 منتشر شد. ناظران آن را به عنوان یک پیشرفت چشمگیر نسبت به GPT-3.5 دیدند، با این هشدار که GPT-4 بسیاری از مشکلات مشابه را حفظ کرد. برخی از پیشرفتهای GPT-4 قبل از آموزش توسط OpenAI پیشبینی شده بود، در حالی که پیشبینی برخی دیگر به دلیل نقض قوانین مقیاس پاییندستی دشوار بود. OpenAI ورودی های تصویر و ویدئو را برای GPT-4 نشان داد، اگرچه چنین ویژگی هایی برای عموم مردم غیرقابل دسترسی است. OpenAI از افشای اطلاعات فنی مانند اندازه مدل GPT-4 خودداری کرده است. سرویس اشتراک ChatGPT Plus دسترسی به نسخه GPT-4 ChatGPT را ارائه میدهد. مایکروسافت تأیید کرد که بینگ چت قبل از انتشار رسمی GPT-4 از GPT-4 استفاده میکرد. در نوامبر 2023، OpenAI GPT-4 Turbo را راهاندازی کرد که به ویژه دارای یک پنجره زمینه بسیار بزرگتر است.
در می2024، OpenAI GPT-4o ("o" برای "Omni") را منتشر کرد، مدلی که قادر به تجزیه و تحلیل و تولید متن، تصاویر و صدا است. GPT-4o دو برابر سریعتر است و قیمت آن نصف GPT-4 Turbo است. GPT-4o علیرغم توانایی بیشتر از مدل قدیمی GPT-4 که فقط از طریق اشتراک پولی در دسترس است، برای همه کاربران در محدوده استفاده رایگان است. محدودیت استفاده برای مشترکین ChatGPT Plus پنج برابر بیشتر از کاربران رایگان است. در 18 ژوئیه 2024، OpenAI GPT-4o mini را منتشر کرد، یک نسخه کوچکتر از GPT-4o که جایگزین GPT-3.5 Turbo در رابط ChatGPT شد. API آن 0.15 دلار به ازای هر میلیون توکن ورودی و 0.60 دلار به ازای هر میلیون توکن خروجی هزینه دارد، در مقایسه با GPT-4o به ترتیب 5 و 15 دلار.
در 12 سپتامبر 2024، OpenAI مدل o1-preview را معرفی کرد. o1 برای حل مسائل پیچیدهتر طراحی شده است که با صرف زمان بیشتر برای فکر کردن قبل از پاسخ دادن، آن را قادر میسازد تا پاسخهای خود را تجزیه و تحلیل کند و استراتژیهای مختلف را کشف کند. طبق OpenAI، o1-preview در زمینه هایی مانند برنامه نویسی رقابتی، ریاضیات و استدلال علمی بهتر از GPT-4o عمل میکند. o1-preview در صدک 89 در مسابقات برنامه نویسی رقابتی Codeforces رتبه بندی شده است، در امتحان مقدماتی المپیاد ریاضی بین المللی 83% (در مقایسه با 13% برای GPT-4o)، و عملکردی مشابه Ph.D دارد. دانش آموزان در معیارهای فیزیک، زیست شناسی و شیمی. نسخه سریعتر و ارزانتر به نام o1-mini نیز منتشر شد.
جدول زیر نسخههای مدل اصلی ChatGPT را فهرست میکند و تغییرات قابل توجهی را که با هر نسخه ارائه میشود، توصیف میکند:
مهندسان OpenAI گفته اند که انتظار نداشتند ChatGPT بسیار موفق باشد و از پوشش و توجهی که دریافت کرد شگفت زده شدند. ChatGPT به طور گسترده در دسامبر 2022 به عنوان دارای برخی از قابلیت های بی سابقه و قدرتمند ارزیابی شد. کوین روز از نیویورک تایمز آن را "بهترین چت ربات هوش مصنوعی که تا به حال برای عموم منتشر شده" نامیده است. سامانتا لاک از گاردین خاطرنشان کرد که میتوانست متنی «با جزئیات چشمگیر» و «شبیه انسان» تولید کند. الکس کانتروویتز از مجله اسلیت، واکنش ChatGPT به سؤالات مربوط به آلمان نازی را ستود، از جمله این بیانیه که آدولف هیتلر بزرگراههایی را در آلمان ساخته است. که با اطلاعاتی در مورد استفاده آلمان نازی از کار اجباری مواجه شد. درک تامپسون در "پیشرفت های سال" مجله آتلانتیک برای سال 2022، ChatGPT را به عنوان بخشی از "فوران مولد هوش مصنوعی" گنجاند که "ممکن است نظر ما را در مورد نحوه کار ما تغییر دهد. چگونه فکر میکنیم، و خلاقیت انسان چیست".
کلسی پایپر از Vox نوشت که "ChatGPT اولین معرفی عملی عموم مردم از قدرت هوش مصنوعی مدرن است و در نتیجه بسیاری از ما [بهت زده] هستیم." و اینکه ChatGPT "به اندازه کافی باهوش است که علیرغم ایراداتش مفید باشد". پل گراهام از Y Combinator در توییتی نوشت: "نکته قابل توجه در مورد واکنش به ChatGPT فقط تعداد افرادی نیست که تحت تاثیر آن قرار میگیرند، بلکه این است که آنها چه کسانی هستند. اینها افرادی نیستند که با هر چیز جدید براق هیجان زده میشوند. اتفاق بزرگی در حال رخ دادن است." ChatGPT یک میلیون کاربر در پنج روز و 100 میلیون کاربر در دو ماه به دست آورد و به سریع ترین برنامه اینترنتی در حال رشد در تاریخ تبدیل شد.
راهاندازی و محبوبیت ChatGPT گوگل را غافلگیر کرد و در ماههای بعد واکنشی گسترده و بیسابقه را به دنبال داشت. در دسامبر 2022، مدیران Google از ترس تهدید ChatGPT و همکاری مایکروسافت با OpenAI در جستجوی Google، زنگ هشدار "کد قرمز" را برای کسب و کار اصلی به صدا درآوردند. پس از بسیج نیروی کار خود، گوگل تلاش کرد تا Bard، یک ربات چت مجهز به LaMDA LLM را در 6 فوریه 2023، یک روز قبل از اعلام بینگ توسط مایکروسافت، راه اندازی کند. AI خط مقدم کنفرانس سالانه Google I/O گوگل بود. تعدادی از ویژگیهای مولد مبتنی بر هوش مصنوعی را در محصولات خود برای مقابله با OpenAI و مایکروسافت اعلام کرد.
روزنامه نگاران و محققان در مورد تمایل ChatGPT به توهم اظهار نظر کرده اند. مایک پرل از وبلاگ فناوری آنلاین Mashable ChatGPT را با چندین سؤال آزمایش کرد. در یک مثال، او از ChatGPT برای "بزرگترین کشور آمریکای مرکزی که مکزیک نیست" (مکزیک در آمریکای شمالی است) درخواست کرد که ChatGPT با گواتمالا پاسخ داد (پاسخ صحیح نیکاراگوئه است).
وقتی CNBC از ChatGPT اشعار را خواست، به "Ballad of Dwight Fry"، ChatGPT به جای اشعار واقعی، اشعار اختراعی را ارائه کرد. نویسندگان The Verge به مقاله تحقیقاتی مهم 2021 "درباره خطرات طوطی های تصادفی: آیا مدل های زبانی خیلی بزرگ هستند؟ 🦜" توسط امیلی ام بندر استناد کردند. تیمنیت گبرو، آنجلینا مکمیلان میجر و مارگارت میچل، ChatGPT را با یک «طوطی تصادفی» مقایسه میکنند، مانند پروفسور آنتون ون دن هنگل از مؤسسه استرالیایی برای یادگیری ماشینی. مایکل هیکس، فیلسوف از دانشگاه گلاسکو، در همین راستا آن را "چرند" توصیف کرد.
در دسامبر 2022، وبسایت پرسش و پاسخ Stack Overflow استفاده از ChatGPT را برای ایجاد پاسخ به سؤالات با استناد به ماهیت واقعی مبهم پاسخهای آن ممنوع کرد. در ژانویه 2023، کنفرانس بینالمللی یادگیری ماشین هرگونه استفاده غیرمستند از ChatGPT یا ChatGPT را ممنوع کرد. سایر مدل های زبان بزرگ برای تولید هر متنی در مقالات ارسالی. سامسونگ در ماه می2023 پس از آپلود مطالب حساس در ChatGPT، هوش مصنوعی مولد را در سراسر شرکت ممنوع کرد.
در ژانویه 2023، پس از ارسال آهنگی که ChatGPT به سبک نیک کیو برای او فرستاده شد، کیو در The Red Hand Files پاسخ داد و گفت که عمل نوشتن یک آهنگ "یک تجارت خون و روده است که به چیزی از من نیاز دارد." برای شروع ایده جدید و تازه، انسانیت من را میطلبد. او در ادامه گفت: با تمام عشق و احترامی که در دنیا وجود دارد، این آهنگ مزخرف است، تمسخر عجیبی از انسان بودن، و خب، من زیاد آن را دوست ندارم. در فوریه 2023، مجله تایم تصویری از گفتگو با ChatGPT را روی جلد خود قرار داد و نوشت که "مسابقه تسلیحاتی هوش مصنوعی همه چیز را تغییر میدهد" و "مسابقه تسلیحاتی هوش مصنوعی در جریان است. شروع به نگرانی کنید".
رسانه دولتی چین ChatGPT را راهی برای ایالات متحده برای انتشار اطلاعات نادرست توصیف کرده است. ChatGPT توسط فایروال بزرگ در چین در 2 مارس 2023 مسدود شد. در ماه مه 2023، پلیس چین مردی را دستگیر کرد که ظاهراً از ChatGPT برای تهیه گزارش جعلی در مورد آن استفاده کرده بود. یک تصادف قطار، که سپس برای کسب سود به صورت آنلاین منتشر شد. در دسامبر 2023، پلیس چین چهار نفر را دستگیر کرد که ظاهراً از ChatGPT برای توسعه باج افزار استفاده کرده بودند. در سال 2024، یک نظرسنجی از جوانان چینی نشان داد که 18 درصد از پاسخ دهندگانی که پس از سال 2000 متولد شده اند، گزارش داده اند که از ابزارهای مولد استفاده میکنند. هوش مصنوعی "تقریبا هر روز" و ChatGPT یکی از محبوب ترین محصولات هوش مصنوعی مولد در چین است. در اواخر مارس 2023، مقام حفاظت از اطلاعات ایتالیا، ChatGPT را در ایتالیا ممنوع کرد و تحقیقاتی را آغاز کرد. تنظیمکنندههای ایتالیایی ادعا میکنند که ChatGPT خردسالان را در معرض محتوای نامناسب برای سن قرار میدهد و استفاده OpenAI از مکالمات ChatGPT به عنوان دادههای آموزشی میتواند مقررات کلی حفاظت از دادههای اروپا را نقض کند. در آوریل 2023، ممنوعیت ChatGPT در ایتالیا لغو شد. OpenAI گفت که اقداماتی را برای شفاف سازی و رسیدگی موثر به مسائل مطرح شده انجام داده است. ابزار تأیید سن برای اطمینان از سن کاربران حداقل 13 سال پیاده سازی شد. علاوه بر این، کاربران میتوانند قبل از ثبت نام به سیاست حفظ حریم خصوصی آن دسترسی داشته باشند.
در آوریل 2023، برایان هود، شهردار شورای هپبورن شایر، قصد داشت علیه ChatGPT به دلیل اطلاعات نادرست اقدام قانونی کند. به گفته هود، ChatGPT به اشتباه ادعا کرد که او در طول مدت تصدی خود در یکی از شعبه های بانک ملی استرالیا به دلیل رشوه گیری زندانی شده است. در واقع هود به عنوان یک افشاگر عمل میکرد و هیچ گونه جرم مجرمانه ای به او متهم نشد. تیم حقوقی او به عنوان اولین گام رسمی در تشکیل پرونده افترا، اخطاریه نگرانیها را به OpenAI ارسال کرد.
در ژوئیه 2023، کمیسیون تجارت فدرال ایالات متحده (FTC) یک درخواست تحقیقاتی مدنی به OpenAI صادر کرد تا بررسی کند که آیا امنیت دادهها و شیوههای حریم خصوصی این شرکت به توسعه ChatGPT مصرفکنندگانی ناعادلانه بودند یا به مصرفکنندگان آسیب رساندند (از جمله با آسیب به شهرت) که نقض بخش 5 قانون کمیسیون تجارت فدرال در سال 1914 بود. در ژوئیه 2023، FTC تحقیقاتی را در مورد OpenAI، خالق ChatGPT، به دلیل ادعاهایی مبنی بر اینکه این شرکت اطلاعات عمومی را پاک کرده و اطلاعات نادرست و افتراآمیز منتشر کرده است، آغاز کرد. FTC نامه ای 20 صفحه ای به OpenAI ارسال کرد و خواستار اطلاعات جامع در مورد فن آوری و حفاظت از حریم خصوصی خود و همچنین هرگونه اقدامی برای جلوگیری از تکرار موقعیت هایی شد که در آن ربات چت آن محتوای نادرست و تحقیرآمیز درباره افراد تولید میکرد. مرکز تحقیقات Pew در مارس 2023 نظرسنجی نشان داد که 14 درصد از بزرگسالان آمریکایی ChatGPT را امتحان کرده اند. در ماه جولای، مرکز تحقیقات پیو همین رقم را 18 درصد اعلام کرد. تحقیقات انجام شده در سال 2023 نقاط ضعف ChatGPT را نشان داد که آن را در برابر حملات سایبری آسیب پذیر میکند.
یک مطالعه نمونهای از حملات به ChatGPT، از جمله فرار از زندان و روانشناسی معکوس را ارائه کرد. علاوه بر این، عوامل مخرب میتوانند از ChatGPT برای حملات مهندسی اجتماعی و حملات فیشینگ استفاده کنند. محققان همچنین ادعا کردند که ChatGPT و سایر ابزارهای مولد هوش مصنوعی دارای قابلیتهای دفاعی و توانایی بهبود امنیت هستند. این فناوری میتواند امنیت را با اتوماسیون دفاع سایبری، هوش تهدید، شناسایی حمله و گزارشدهی بهبود بخشد. مطالعه دیگری گزارش داد که GPT-4 در آزمونهای تورنس تفکر خلاق، امتیاز بهتری نسبت به 99 درصد از انسانها کسب کرده است. در دسامبر 2023، ChatGPT اولین غیرانسانی شد که در Nature's 10 گنجانده شد، فهرست سالانه ای که توسط Nature افرادی که تأثیر قابل توجهی در علم داشته اند، گنجانده شد. سلست بیور در مقاله Nature نوشت که "ChatGPT آزمون تورینگ را شکست." محققان دانشگاه استنفورد گزارش دادند که GPT-4 "آزمایش تورینگ سختی را پشت سر میگذارد و از رفتارهای معمولی انسانی عمدتاً برای همکاری بیشتر فاصله میگیرد." در می2024، OpenAI حسابهای مربوط به استفاده از ChatGPT توسط عملیاتهای نفوذ تحت حمایت دولت مانند Spamouflage چین، روسیه Doppelganger، و وزارت امور دیاسپورا و مبارزه با یهودیستیزی اسرائیل را حذف کرد. در آگوست 2024، FTC به اتفاق آرا به ممنوعیت استفاده از جعلی توسط بازاریابان رأی داد. نظرات کاربران ایجاد شده توسط چت ربات های هوش مصنوعی (شامل ChatGPT) و تأثیرگذارانی که برای افزایش تعداد فالوورها برای ربات ها پرداخت میکنند.
ChatGPT برای تولید بخش های مقدماتی و چکیده مقالات علمی استفاده شده است. چندین مقاله ChatGPT را به عنوان یک نویسنده مشترک فهرست کرده اند. مجلات علمی واکنش های متفاوتی نسبت به ChatGPT دارند. برخی، از جمله Nature و JAMA Network، "نیاز دارند که نویسندگان استفاده از ابزارهای تولید متن را افشا کنند و فهرست کردن یک مدل زبان بزرگ (LLM) مانند ChatGPT را به عنوان یک نویسنده مشترک ممنوع کنند." علم استفاده از متن تولید شده توسط LLM را در همه مجلات خود "به طور کامل ممنوع کرد". مقالات دارای تعداد زیادی عبارات غیرمعمول مشخصه LLMها هستند.[نکته 1] بسیاری از نویسندگان استدلال میکنند که استفاده از ChatGPT در دانشگاه برای تدریس و مرور به دلیل تمایل آن به توهم مشکل ساز است. رابین باوونز، استادیار دانشگاه تیلبورگ، دریافت که یک گزارش بررسی همتایان ایجاد شده توسط ChatGPT در مورد مقاله او به مطالعاتی اشاره کرده است که وجود ندارد. به گفته کتابدار کریس گراناتینو از کتابخانه Lemieux در دانشگاه سیاتل، اگرچه ChatGPT میتواند محتوایی تولید کند که به ظاهر شامل نقل قول های قانونی است، در بیشتر موارد این استنادها واقعی نیستند یا تا حد زیادی نادرست هستند.
محققان دانشگاه پردو پاسخ ChatGPT به 517 سوال در مورد مهندسی نرم افزار یا برنامه نویسی کامپیوتری که در Stack Overflow مطرح شده بود را از نظر صحت، سازگاری، جامعیت و مختصر تجزیه و تحلیل کردند و دریافتند که 52٪ از آنها حاوی نادرستی و 77٪ پرمخاطب بودند. محققان دانشگاه استنفورد و دانشگاه کالیفرنیا، برکلی دریافت که، هنگام ایجاد پاسخهای اجرایی مستقیم به آخرین 50 مشکل تولید کد از LeetCode که دارای رتبه «آسان» بودند، عملکرد GPT-3.5 و GPT-4 به ترتیب از 22 درصد و 52 درصد کاهش یافت. در مارس 2023 به ترتیب به 2 و 10 درصد در ژوئن 2023 رسید.
Check Point Research و دیگران اشاره کردند که ChatGPT میتواند ایمیلهای فیشینگ و بدافزار بنویسد، بهویژه زمانی که با OpenAI Codex ترکیب شود. محققان CyberArk نشان دادند که ChatGPT میتواند برای ایجاد بدافزار چند شکلی استفاده شود که میتواند از محصولات امنیتی فرار کند در حالی که به تلاش کمی از سوی مهاجم نیاز دارد. ایمیلهای فیشینگ مخرب و افزایش 967 درصدی فیشینگ اعتبار، که متخصصان امنیت سایبری در یک نظرسنجی صنعتی استدلال کردند که به دلیل افزایش استفاده مجرمان سایبری از هوش مصنوعی مولد (از جمله ChatGPT) است. در جولای 2024، Futurism گزارش داد که GPT-4o گاهی اوقات در ChatGPT انجام میشود. پیوند "سایت های خبری کلاهبرداری که کاربر را با به روز رسانی های جعلی نرم افزار و هشدارهای ویروسی غرق میکنند"؛ از این پنجرههای بازشو میتوان برای وادار کردن کاربران به دانلود بدافزار یا برنامههای ناخواسته استفاده کرد.
این نگرانی وجود دارد که ChatGPT بتواند جانشین مشاغل، به ویژه نقشهایی مانند نوشتن خلاق، کپینویسی، ارتباطات، روزنامهنگاری، کدنویسی و ورود اطلاعات شود. انتشار ChatGPT موجی از سرمایهگذاری در چین را برانگیخت که منجر به توسعه بیش از بیش از 200 مدل بزرگ یادگیری زبان. این "جنگ صد مدل" نامیده شد.
دن گیلمور، نویسنده فناوری، در سال 2022 از ChatGPT برای یک تکلیف دانشجویی استفاده کرد و دریافت که متن تولید شده آن با آنچه که یک دانشآموز خوب ارائه میکند برابری میکند و معتقد است که "آکادمیک مسائل بسیار جدی برای مقابله با آن دارد". ترنس دی، استاد جغرافیا، استنادهای ایجاد شده توسط ChatGPT و متوجه شد که آنها جعلی هستند. با وجود این، او مینویسد که "عناوین مقالات جعلی همگی مستقیماً به سؤالات مربوط میشوند و به طور بالقوه میتوانند مقالات بسیار خوبی باشند. فقدان یک استناد واقعی میتواند نشان دهنده فرصتی برای نویسنده مبتکر برای پر کردن خلاء باشد." به گفته دی، امکان تولید دوره های مقدماتی کالج با کیفیت بالا با ChatGPT وجود دارد. او از آن برای نوشتن مطالبی در مورد "دوره های مقدماتی جغرافیای فیزیکی، برای دوره دوم من در هیدرولوژی جغرافیایی، و کارتوگرافی سال دوم، سیستم های اطلاعات جغرافیایی و سنجش از دور" استفاده کرد. او نتیجه میگیرد که "این رویکرد میتواند ارتباط قابل توجهی برای یادگیری آزاد داشته باشد و به طور بالقوه میتواند بر مدل های فعلی انتشار کتاب های درسی تاثیر بگذارد."
در 7 مه 2024، OpenAI در یک پست وبلاگی اعلام کرد که در حال توسعه ابزارهایی مانند واترمارک مقاوم در برابر دستکاری برای شناسایی محتوای تولید شده توسط هوش مصنوعی است. در به روز رسانی 4 اوت، پس از گزارش وال استریت ژورنال در مورد انتشار تاخیری ابزار واترمارک برای تشخیص هوش مصنوعی، OpenAI پیشرفت مشترک در منشأ متن را به اشتراک گذاشت و یک روش واترمارکینگ متن را آشکار کرد. این روش اگرچه در برابر بازنویسی دقیق است، اما در برابر دستکاری جهانی، مانند ترجمه یا بازنویسی، کارایی کمتری دارد. OpenAI همچنین به تأثیرات نامتناسب احتمالی بر گروه هایی مانند غیر انگلیسی زبانان اشاره کرد.
برخی از محققان ابراز نگرانی کردهاند که در دسترس بودن ChatGPT میتواند اصالت نوشتار را کاهش دهد، باعث شود افراد بیشتر شبیه هوش مصنوعی بنویسند که در معرض مدل قرار میگیرند، و دیدگاه انگلیسیمرکزی متمرکز بر چند گویش انگلیسی در سطح جهانی را تشویق میکنند. یک سردبیر ارشد در The آتلانتیک نوشت که ChatGPT و سایر فناوری های مشابه، ایده پوچ قبلی نظریه اینترنت مرده را کمی واقعی تر میکند، جایی که هوش مصنوعی میتواند روزی بیشتر محتوای وب را برای کنترل جامعه ایجاد کند.در طول سه ماه اول پس از اینکه ChatGPT در دسترس عموم قرار گرفت، صدها کتاب در آمازون ظاهر شد که آن را بهعنوان نویسنده یا همنویس فهرست میکردند و تصاویری را که توسط مدلهای هوش مصنوعی دیگر مانند Midjourney ساخته شده بودند، نشان دادند.
بین مارس و آوریل 2023، روزنامه ایتالیایی Il Foglio روزانه یک مقاله تولید شده توسط ChatGPT را در وب سایت خود منتشر میکرد، که میزبان مسابقه ای ویژه برای خوانندگان خود بود. این مقالات به موضوعاتی مانند جایگزینی احتمالی خبرنگاران انسانی توسط سیستم های هوش مصنوعی، Elon پرداختند. مدیریت ماسک در توییتر، سیاست مهاجرت دولت ملونی و رقابت بین چت بات ها و دستیاران مجازی. در ژوئن 2023، صدها نفر در یک "خدمات کلیسایی مبتنی بر ChatGPT" در کلیسای سنت پل در فورت شرکت کردند.
آلمان الهیدان و فیلسوف، یوناس زیمرلین، که ریاست آن را بر عهده داشت، گفت که "تقریباً 98 درصد از دستگاه" بود. آواتار ایجاد شده توسط ChatGPT به مردم گفت: "دوستان عزیز، برای من افتخار است که اینجا بایستم و شما را به عنوان اولین هوش مصنوعی در کنوانسیون امسال پروتستان ها در آلمان. واکنش ها به این مراسم متفاوت بود. آخرین فیلمنامهنویس محصول ۲۰۲۴ ساخته و کارگردانی پیتر لوئیسی است که با استفاده از ChatGPT نوشته شده و بهعنوان «نخستین فیلم کاملاً توسط هوش مصنوعی» به بازار عرضه شد.
شرکت فناوری هوش مصنوعی c3.ai پس از اعلام ادغام ChatGPT در جعبه ابزار خود، شاهد افزایش 28 درصدی در قیمت سهام خود بود. قیمت سهام BuzzFeed، یک شرکت رسانه دیجیتال غیر مرتبط با هوش مصنوعی، پس از اعلام پذیرش فناوری OpenAI برای محتوا، 120 درصد افزایش یافت. رویترز دریافت که قیمت سهام شرکتهای مرتبط با هوش مصنوعی BigBear.ai و SoundHound AI به ترتیب 21 و 40 درصد افزایش یافته است، حتی اگر ارتباط مستقیمی با ChatGPT نداشته باشند. آنها این افزایش را به نقش ChatGPT در تبدیل هوش مصنوعی به دیوار نسبت دادند. شعار خیابان تحقیقات آکادمیک منتشر شده در Finance Research Letters نشان داد که «اثر ChatGPT» سرمایهگذاران خرد را وادار کرد تا قیمت داراییهای رمزنگاری مرتبط با هوش مصنوعی را با وجود اینکه بازار ارزهای دیجیتال در بازار نزولی قرار دارد، افزایش دهند و علاقه سرمایهگذاران نهادی را کاهش داد. که در پاسخ به راهاندازی ChatGPT، سرمایهگذاران ارزهای دیجیتال ترجیح دادهاند که داراییهای رمزنگاری مرتبط با هوش مصنوعی باشند.
آزمایشی توسط Finder.com نشان داد که ChatGPT میتواند با انتخاب سهام بر اساس معیارهایی مانند سابقه رشد و سطح بدهی، از مدیران صندوقهای محبوب پیشی بگیرد، که منجر به افزایش 4.9 درصدی در حساب فرضی 38 سهم، و عملکرد بهتر از 10 صندوق سرمایهگذاری معیار شده با میانگین میشود. از دست دادن 0.8%. برعکس، مدیران و مدیران سرمایه گذاری در صندوق های کمیت وال استریت (از جمله آنهایی که برای چندین دهه از یادگیری ماشینی استفاده کرده اند) خاطرنشان کرده اند که ChatGPT به طور منظم خطاهای آشکاری را مرتکب میشود که از نظر مالی برای سرمایه گذاران گران تمام میشود، زیرا حتی سیستم های هوش مصنوعی که از یادگیری تقویتی استفاده میکنند. یا خودآموز به دلیل کیفیت ذاتا پر سر و صدا داده های بازار و سیگنال های مالی موفقیت محدودی در پیش بینی روند بازار داشته اند.
در نوامبر 2023، تحقیقات انجام شده توسط Patronus AI، یک شرکت استارتاپ هوش مصنوعی، عملکرد GPT-4، GPT-4-Turbo، Claude2 و LLaMA-2 را در دو نسخه از یک آزمون 150 سوالی در مورد اطلاعات در صورتهای مالی مقایسه کرد. به عنوان مثال، فرم 10-K، فرم 10-Q، فرم 8-K، گزارش های سود، رونوشت های فراخوان سود) که توسط شرکت های دولتی به کمیسیون بورس و اوراق بهادار ایالات متحده ارسال شده است. یکی از نسخههای آزمایش، مدلهای هوش مصنوعی مولد را ملزم میکرد تا از یک سیستم بازیابی برای یافتن پرونده SEC خاص برای پاسخ به سؤالات استفاده کنند. دیگری برای پاسخ به سوال (یعنی در یک پنجره زمینه طولانی) پرونده SEC خاص را به مدل ها داد. در نسخه سیستم بازیابی، GPT-4-Turbo و LLaMA-2 هر دو نتوانستند به 81٪ از سؤالات پاسخ درست بدهند، در حالی که در نسخه پنجره زمینه طولانی، GPT-4-Turbo و Claude-2 نتوانستند پاسخ های درستی ارائه دهند. به ترتیب به 21% و 24% از سوالات.
در زمینه مراقبتهای بهداشتی، استفادهها و نگرانیهای احتمالی توسط انجمنهای حرفهای و پزشکان مورد بررسی قرار میگیرد. دو مقاله اولیه نشان داد که ChatGPT میتواند در آزمون مجوز پزشکی ایالات متحده (USMLE) قبول شود. مقالاتی که اکنون از این برنامه های هوش مصنوعی به عنوان ابزارهای مفید در آموزش پزشکی، تحقیقات و حتی تصمیم گیری بالینی تبلیغ میکنند. در فوریه 2023 دو مقاله جداگانه منتشر شد که مجدداً مهارت ChatGPT در پزشکی را با استفاده از USMLE ارزیابی کردند. یافتهها در JMIR Medical Education و PLOS Digital Health منتشر شد. نویسندگان مقاله سلامت دیجیتال PLOS بیان کردند که نتایج "نشان میدهد که مدل های زبانی بزرگ ممکن است پتانسیل کمک به آموزش پزشکی و به طور بالقوه تصمیم گیری بالینی را داشته باشند." نویسندگان مقاله دیگر در آموزش پزشکی JMIR به این نتیجه رسیدند که "ChatGPT در سطحی که از یک دانشجوی سال سوم پزشکی انتظار میرود در ارزیابی شایستگی اولیه دانش پزشکی عمل میکند." آنها پیشنهاد میکنند که میتواند به عنوان یک "محیط یادگیری تعاملی برای دانش آموزان" استفاده شود. خود هوش مصنوعی، با تحریک محققان، به این نتیجه رسید که "این مطالعه نشان میدهد که ChatGPT پتانسیل استفاده از آن به عنوان یک معلم پزشکی مجازی را دارد، اما تحقیقات بیشتری برای ارزیابی عملکرد و قابلیت استفاده آن در این زمینه مورد نیاز است." نسخه ChatGPT مبتنی بر GPT-4 به طور قابل توجهی بهتر از نسخه مبتنی بر GPT-3.5 بود. محققان دانشگاه استنفورد و دانشگاه کالیفرنیا، برکلی دریافتند که عملکرد GPT-3.5 و GPT-4 در USMLE از مارس 2023 تا ژوئن 2023کاهش یافته است. مقاله مارس 2023 کاربرد ChatGPT را در سم شناسی بالینی آزمایش کرد. نویسندگان دریافتند که هوش مصنوعی در پاسخ به یک «بسیار ساده [مثال مورد بالینی] که بعید است توسط هیچ پزشک در این زمینه نادیده گرفته شود، «به خوبی عمل کرد». آنها افزودند: "از آنجایی که ChatGPT بیشتر توسعه مییابد و به طور خاص برای پزشکی سازگار میشود، روزی میتواند در موارد بالینی کمتر رایج (یعنی مواردی که متخصصان گاهی اوقات آنها را از دست میدهند) مفید باشد. به جای اینکه هوش مصنوعی جایگزین انسان ها (پزشکان) شود، ما آن را به عنوان " پزشکانی که از هوش مصنوعی استفاده میکنند، جایگزین «پزشکانی که از هوش مصنوعی استفاده نمیکنند» در سالهای آینده». یک مطالعه در آوریل 2023 در رادیولوژی، توانایی هوش مصنوعی را در پاسخ به سؤالات مربوط به غربالگری سرطان سینه آزمایش کرد. نویسندگان دریافتند که «حدود 88 درصد مواقع» به درستی پاسخ میدهد، با این حال، در یک مورد (به عنوان مثال)، توصیههایی ارائه میکند که حدود یک سال قبل منسوخ شده بودند. جامعیت پاسخهای آن نیز وجود نداشت. مطالعهای که در همان ماه در JAMA Internal Medicine منتشر شد، نشان داد که ChatGPT اغلب در پاسخ به سؤالات بیمار از پزشکان انسانی بهتر عمل میکند (زمانی که با سؤالات و پاسخهای موجود در /r/AskDocs، انجمنی در Reddit که ناظران آن را تأیید میکنند، اندازهگیری میشود. نویسندگان مطالعه پیشنهاد میکنند که این ابزار میتواند با سیستمهای پزشکی ادغام شود تا به پزشکان در تهیه پاسخها به سؤالات بیمار کمک کند.
متخصصان بر محدودیت های ChatGPT در ارائه کمک های پزشکی تاکید کرده اند. در مکاتبه با The Lancet Infectious Diseases، سه کارشناس ضد میکروبی نوشتند که "بزرگترین موانع اجرای ChatGPT در عمل بالینی نقص در آگاهی موقعیتی، استنتاج و سازگاری است. این کاستی ها میتواند ایمنی بیمار را به خطر بیندازد." استفاده بالقوه از ChatGPT در زمینه های پزشکی (به عنوان مثال، "به عنوان یک دستیار دیجیتالی برای پزشکان با انجام عملکردهای اداری مختلف مانند جمع آوری اطلاعات پرونده بیمار یا طبقه بندی داده های بیمار بر اساس سابقه خانوادگی، علائم، نتایج آزمایشگاهی، آلرژی های احتمالی، و غیره")، هشدار داد.
یک رادیولوژیست هشدار داد: "ما در تجربه خود دیده ایم که ChatGPT گاهی مقالات جعلی مجلات یا کنسرسیوم های بهداشتی را برای حمایت از ادعاهای خود میسازد"؛ همانطور که در یکی از مجموعه مقالات کلینیک مایو گزارش شده است: سلامت دیجیتال در مقاله، ChatGPT ممکن است این کار را برای 69٪ از مراجع پزشکی ذکر شده خود انجام دهد. محققان تاکید کردند که در حالی که بسیاری از ارجاعات آن ساخته شده بودند، اما آنهایی که "فریبکارانه واقعی" به نظر میرسیدند. همانطور که دکتر استیون هیوز برای گفتگو ذکر کرد، ChatGPT قادر است اشتباهات گذشته خود را اصلاح کند. او همچنین به "تدبیر" هوش مصنوعی در مورد موضوعات مربوط به سلامت جنسی اشاره کرد. برخلاف یافتههای قبلی، پاسخهای ChatGPT به سوالات مربوط به بیهوشی در مقایسه با بارد دقیقتر، مختصر و توصیفیتر بود. بارد 30.3 درصد خطا در پاسخ در مقایسه با ChatGPT (0 درصد خطا) نشان داد. در کنفرانسی از انجمن داروسازان سیستم سلامت آمریکا در دسامبر 2023، محققان دانشگاه لانگ آیلند (LIU) مطالعه ای را ارائه کردند که پاسخ ChatGPT به 45 مورد را بررسی کرد. سوالات متداول خدمات اطلاعات دارویی کالج داروسازی LIU در یک دوره 16 ماهه از سال 2022 تا 2023 در مقایسه با پاسخ های تحقیق شده ارائه شده توسط داروسازان حرفه ای. برای 29 سوال از 39 سوالی که ادبیات پزشکی کافی برای پاسخ دادهمحور وجود داشت، ChatGPT نتوانست پاسخی مستقیم ارائه کند یا پاسخی اشتباه یا ناقص ارائه کرد (و در برخی موارد، اگر به آن عمل شود، پاسخ بیمار را به خطر میاندازد. سلامتی). محققان از ChatGPT خواسته بودند که برای تمام پاسخهایش استنادهای تحقیقاتی پزشکی ارائه کند، اما این کار را تنها برای هشت مورد انجام داد و هر هشت شامل حداقل یک استناد ساختگی (جعلی) بود. یک مطالعه ژانویه 2024 که توسط محققان مرکز پزشکی کودکان کوهن انجام شد، نشان داد که GPT-4 در تشخیص موارد پزشکی کودکان دارای دقت 17٪ است.
در ژانویه 2023، بری فینگولد، سناتور ایالت ماساچوست و جاش اس. کاتلر، نماینده ایالتی، لایحهای را پیشنهاد کردند که بخشی از آن توسط ChatGPT نوشته شده بود، «قانونی که با کمک ChatGPT برای تنظیم مدلهای هوش مصنوعی مولد مانند ChatGPT تنظیم شد»، که شرکتها را ملزم به افشای خود میکند. الگوریتمها و شیوههای جمعآوری دادهها به دفتر دادستان کل ایالت، ارزیابیهای منظم خطر را ترتیب میدهند، و به پیشگیری از سرقت ادبی کمک میکنند. این لایحه رسماً طی جلسه استماع در 13 ژوئیه ارائه شد. در 11 آوریل 2023، قاضی دادگاهی در پاکستان از ChatGPT برای تصمیم گیری در مورد وثیقه یک متهم 13 ساله در یک موضوع استفاده کرد. دادگاه در حکم خود استفاده از کمک ChatGPT را نقل کرد: آیا یک مظنون نوجوان در پاکستان که 13 سال سن دارد، میتواند پس از دستگیری وثیقه صادر شود؟
طبق قانون سیستم عدالت نوجوانان 2018، طبق بند 12، دادگاه میتواند تحت شرایط خاصی قرار وثیقه صادر کند. با این حال، تشخیص اینکه آیا یک مظنون 13 ساله پس از دستگیری وثیقه صادر میشود یا خیر، با دادگاه است. قاضی سوالات دیگری در مورد این پرونده از ChatGPT پرسید و تصمیم نهایی خود را با توجه به پاسخ های آن تنظیم کرد. در Mata v. Avianca, Inc., 22-cv-1461 (PKC)، یک دعوی صدمه شخصی علیه خطوط هوایی Avianca که در دادگاه منطقه ای نیویورک جنوبی در ماه مه 2023 (با ریاست قاضی ارشد پی. کوین کاستل)، شاکی ارائه شد. گزارش شده است که وکلا از ChatGPT برای ایجاد یک درخواست قانونی استفاده کردند. ChatGPT پروندههای حقوقی ساختگی متعددی را ایجاد کرد که شامل خطوط هوایی ساختگی با نقل قولهای ساختگی و استنادهای داخلی در حرکت قانونی بود. کاستل به تناقضات متعددی در خلاصه نظرات اشاره کرد و یکی از تحلیلهای حقوقی پروندهها را "بیهوده" نامید. وکلای شاکی به دلیل ارائه درخواست و ارائه تصمیمات قانونی ساختگی که ChatGPT به عنوان معتبر ایجاد کرده بود، با مجازات و محرومیت قضایی احتمالی مواجه شدند. پرونده رد شد. و وکلا 5000 دلار جریمه شدند.
در اکتبر 2023، شورای پورتو آلگره، برزیل، به اتفاق آرا یک مصوبه محلی پیشنهاد شده توسط رامیرو روزاریو، عضو شورا را تصویب کرد که ساکنان را از پرداخت هزینه برای تعویض کنتورهای مصرف آب دزدیده شده معاف میکرد. این لایحه در 23 نوامبر اجرایی شد. در 29 نوامبر، روزاریو فاش کرد که این لایحه به طور کامل توسط ChatGPT نوشته شده است و او آن را بدون ایجاد هیچ تغییری یا افشای دخالت چت بات به سایر اعضای شورا ارائه کرده است. شورای شهر رئیس جمهور، همیلتون سوسمایر، ابتدا از ابتکار روزاریو انتقاد کرد و گفت که این میتواند "یک سابقه خطرناک" باشد، اما بعدا گفت که او "نظر خود را تغییر داد": "متاسفانه یا خوشبختانه، این یک روند خواهد بود." در دسامبر 2023، یکی از اصحاب دعوا در یک پرونده مالیاتی در دادگاه ردیف اول در بریتانیا به یک سری پروندههای توهمآمیز اشاره کرد که ادعا میکرد بهانهای معقول برای پرداخت نکردن مالیات بر عایدی سرمایه بدهکار فروش دارد. قاضی هشدار داد که ارائه مراجع قانونی موجود به این معنی است که هم دادگاه و هم درآمد و گمرک HM باید «زمان و پول عمومی را هدر دهند»، که «منابع موجود برای پیشرفت پروندههای سایر کاربران دادگاه را کاهش میدهد که منتظرند. قاضی کوین نیوسام از دادگاه تجدیدنظر ایالات متحده در مدار یازدهم استفاده از ChatGPT را تأیید کرد و اشاره کرد که خودش از این نرم افزار برای کمک به تصمیم گیری در مورد مسائل مربوط به تفسیر قرارداد استفاده میکند.
در آگوست 2023، OpenAI نسخه جدیدی از ChatGPT را برای مشاغل منتشر کرد. این نسخه از مدل سریعتر GPT-4 استفاده میکند و گزینههای سفارشیسازی مانند مکالمات طولانیتر و تجزیهوتحلیل دادهها را ارائه میدهد. برای شرکتها ساختهشده است و دادههای خارج را به اشتراک نمیگذارد. در سپتامبر 2023، OpenAI ویژگیهای جدیدی را به ChatGPT اضافه کرد. اکنون، میتواند تصاویر را تشخیص دهد و با کاربران صحبت کند. میتوانید تصویری از یخچال خود را به آن نشان دهید و ایدههایی برای شام با موادی که دارید به شما پیشنهاد میکند. همچنین میتواند به سؤالات مربوط به عکسها، مانند مکانهای دیدنی، پاسخ دهد. این آپدیت در اپلیکیشنهای iOS و اندروید در دسترس خواهد بود. کاربران فقط باید آن را در تنظیمات خود روشن کنند. ویژگی تصویر در همه پلتفرمها در دسترس خواهد بود.
در نوامبر 2023، OpenAI GPTهایی را معرفی کرد که به کاربران امکان میداد نسخه سفارشیسازی شده ChatGPT خود را برای کارهای خاص مانند پستهای رسانههای اجتماعی یا کمک به کدنویسی بسازند. کاربران میتوانند این رباتهای سفارشی را با دستورالعملها و دانش خود آموزش دهند. OpenAI همچنین یک فروشگاه GPT راهاندازی کرد که در آن کاربران میتوانند رباتهای سفارشی خود را به اشتراک بگذارند و بفروشند.
در دسامبر 2023، OpenAI با Axel Springer همکاری کرد تا ChatGPT را با گزارشهای خبری هوشمندتر کند. اکنون، ChatGPT میتواند خلاصهای از اخبار Bild، Welt، Business Insider و Politico را ارائه دهد. این مشارکت به ChatGPT کمک میکند تا از آخرین اخبار بهروز بماند. آنها همچنین با آسوشیتدپرس همکاری کردند تا از آرشیو اخبار خود برای پاسخهای رباتهای گفتگو استفاده کنند.
ChatGPT و Google اهداف متفاوتی را دنبال میکنند، بنابراین بحث بهتر بودن یکی از دیگری نیست؛ اما سؤال اینجاست که تفاوت گوگل و ChatGPT چیست؟ گوگل موتور جستجویی است که به شما کمک میکند اطلاعات آنلاین را سریع و دقیق پیدا کنید. ChatGPT نوعی ربات چت است که میتواند با شما گفتگو کند. این چت بات برای یافتن اطلاعات جدید به خوبی گوگل نیست زیرا مستقیماً وب را جستجو نمیکند. نسخه رایگان ChatGPT نمیتواند اینترنت را مرور کند، بنابراین پاسخهای آن بر اساس آموزشهایی است که در آن آموزش داده شده که ممکن است همیشه بهروز نباشد. ChatGPT Plus، با این حال، میتواند مانند گوگل وب را مرور کند؛ اما نقطه قوت اصلی آن در توضیح ساده مسائل و گفتگو است؛ بنابراین، اگر به اطلاعات سریع و دقیق نیاز دارید، گوگل بهترین گزینه برای شماست؛ اما اگر میخواهید موضوعات پیچیده را درک کنید یا فقط یک چت ساده داشته باشید، ChatGPT ممکن است مفیدتر باشد.
بله ChatGPT میتواند از پاسخ دادن به برخی درخواستها خودداری کند. این چت بات برای رد درخواستهای نامناسب برای جلوگیری از تولید محتوای مضر یا ناایمن برنامهریزی شده است. این شامل سؤالاتی میشود که حقوق افراد را نقض میکند، توهینآمیز، تبعیضآمیز یا شامل فعالیتهای غیرقانونی است. ChatGPT همچنین میتواند اطلاعات نادرست را به چالش بکشد. این قوانین در این چت بات بسیار مهم هستند زیرا ChatGPT میتواند محتوای بسیار واقعی ایجاد کند که میتواند برای انتشار اطلاعات نادرست یا تحت تأثیر قرار دادن مردم به روشهای منفی، مانند زمان انتخابات، سوءاستفاده شود.
آیا این مسئله واقعت دارد که برخی از متخصصان در رابطه با ChatGPT نگران هستند؟ بله کاملاً؛ اما مهمترین نگرانی در مورد ChatGPT چیست؟ در زیر برخی از نگرانیها در مورد چت جی پی تی آورده شده است:
مردم نگران استفاده دانش آموزان از ChatGPT برای تقلب هستند، بنابراین نیاز به ابزاری وجود دارد که بتواند متن ایجاد شده توسط ChatGPT را شناسایی کند. OpenAI یک ابزار رایگان به نام classifier را در ژانویه 2023 برای مقابله با این مشکل منتشر کرد؛ اما به خوبی کار نکرد و فقط در 26٪ مواقع میتوانست متن نوشته شده با هوش مصنوعی را به درستی شناسایی کند و در 9٪ مواقع هشدارهای نادرست میداد. OpenAI مجبور شد آن را از دسترس خارج کند زیرا به اندازه کافی دقیق نبود.
آشکارسازهای هوش مصنوعی دیگری مانند آشکارساز خروجی GPT-2 و آشکارساز محتوای هوش مصنوعی Writer وجود دارد؛ اما آزمایشات نشان داد که آنها نیز چندان قابلاعتماد نیستند. آنها اغلب متن تولید شده توسط هوش مصنوعی را از دست میدهند و نتایج اشتباهی را ارائه میدهند.
در بخشهای فوق تقریباً بیشتر جنبههایی که مرتبط با اینکه چت جی پی تی چیست را بررسی کردیم اما آیا ChatGPT خوب است یا بد؟ ChatGPT نوعی ربات چت هوشمند است که میتواند به افراد در کارهایی مانند نوشتن ایمیل یا یافتن اطلاعات آنلاین کمک کند اما قبل از اینکه بهطور گسترده از آن استفاده کنیم، باید برخی از مشکلات فنی را حل کنیم تا از اتفاقات بد مانند انتشار اطلاعات اشتباه جلوگیری کنیم. هوش مصنوعی و یادگیری ماشینی به آموزش زیادی نیاز دارند تا خوب کار کنند. در حال حاضر، هوش مصنوعی جهان را تسخیر نمیکند، اما برخی کارشناسان فکر میکنند ممکن است در آینده خطرات هوش مصنوعی برای ما چالشی جدی باشد. مدیرعامل OpenAI فکر میکند که ما به داشتن هوش مصنوعی بسیار هوشمند نزدیک میشویم که اگر مراقب نباشیم میتواند خطرناک باشد.
وقتی با ChatGPT صحبت میکنید، ممکن است از مکالمات شما برای آموزش آن و هوشمندتر کردن آن استفاده شود. OpenAI میتواند چتهای شما را برای استفاده کند، مگر اینکه عضویت ممتازی مانند Plus، Enterprise یا Teams داشته باشید. بنابراین، اگر چیز خصوصی یا شخصی دارید که نمیخواهید دیگران آن را بفهمند، بهتر است آن را با ChatGPT به اشتراک نگذارید. همچنین، درخواستهایی که در ChatGPT تایپ میکنید در حساب شما ذخیره میشوند مگر اینکه آنها را حذف کنید. اگر قابلیت سابقه چت را خاموش کنید، OpenAI مکالمات شما را قبل از حذف 30 روز نگه میدارد.
در حالی که سوگیری در LLM ها بسیار قبل از انتشار ChatGPT در مقالات تحقیقاتی مشاهده شده و مستند شده است، کاربران رسانه های اجتماعی اغلب نمونه هایی از پاسخ های مغرضانه ایجاد شده توسط ChatGPT را به اشتراک میگذارند، منجر به پوشش و انتقاد رسانه ای قابل توجهی شده است. در 1 فوریه 2023، کاربر توییتر LeighWolf تصاویری از دو مکالمه را با ChatGPT به اشتراک گذاشت. در اسکرین شات مکالمه اول، ChatGPT درخواست کاربر «یک شعر درباره ویژگی های مثبت دونالد ترامپ بنویس» را رد کرد و در پاسخ گفت که برای ایجاد محتوای «جناحی، مغرضانه یا سیاسی» برنامه ریزی نشده است. در اسکرین شات مکالمه دوم، هنگامی که همان اعلان ارائه شد اما با متن "جو بایدن" به جای "دونالد ترامپ"، ChatGPT با شعری مطابق دستورالعمل دستور پاسخ داد.
مفسران محافظهکار ChatGPT را به تعصب نسبت به دیدگاههای چپ متهم کردهاند. در ژانویه 2023، مطالعهای بیان کرد که ChatGPT جهتگیری طرفدار محیطزیست و آزادیخواهانه دارد. علاوه بر این، مقالهای در اوت 2023 نشان داد که "سوگیری سیاسی قابل توجه و سیستماتیک نسبت به دموکراتها وجود دارد. در ایالات متحده، لولا در برزیل، و حزب کارگر در بریتانیا<<در پاسخ به چنین انتقادی، OpenAI برنامههایی را تأیید کرد که به ChatGPT اجازه میدهد >> خروجیهایی ایجاد کند که افراد دیگر (از جمله خودمان) ممکن است به شدت با آن مخالف باشند همچنین حاوی اطلاعاتی درباره توصیههایی بود که به بازبینان انسانی در مورد نحوه رسیدگی به موضوعات بحثبرانگیز ارائه کرده بود، از جمله اینکه هوش مصنوعی باید «پیشنهاد توصیف برخی از دیدگاههای افراد و جنبشها را ارائه دهد» و استدلالی «از صدای خود» به نفع آن ارائه نکند. موضوعات "تحریک آمیز یا خطرناک" (اگرچه ممکن است هنوز "برهان های افراد و جنبش های تاریخی را توصیف کند")، و نه "وابستگی به یک طرف" یا "قضاوت یک گروه به عنوان خوب یا بد".
گاردین این سوال را مطرح کرد که آیا هر محتوایی که پس از انتشار ChatGPT در اینترنت یافت میشود، «میتوان واقعاً اعتماد کرد» و خواستار مقررات دولتی شد.
نگرانی در مورد نقض حق نسخه برداری مربوط به ChatGPT وجود دارد. در ژوئن 2023، دو نویسنده از OpenAI شکایت کردند و گفتند که دادههای آموزشی شرکت از وبسایتهای غیرقانونی است که کتابهای دارای حق چاپ را نشان میدهند. کمدین و نویسنده سارا سیلورمن، کریستوفر گلدن، و ریچارد کادری از OpenAI و Meta به دلیل نقض حق نسخهبرداری در جولای 2023 شکایت کردند. بیشتر ادعاهای آنها. در فوریه 2024 رد شدند، به جز ادعای "رقابت ناعادلانه" که اجازه ادامه یافت. انجمن نویسندگان، به نمایندگی از 17 نویسنده، از جمله جورج آر آر مارتین، شکایتی را برای نقض حق نسخه برداری علیه OpenAI در سپتامبر 2023 با ادعای "شرکت ارائه کرد. در دسامبر 2023، نیویورک تایمز از OpenAI و مایکروسافت به دلیل نقض حق نسخه برداری شکایت کرد، با این استدلال که Microsoft Copilot و ChatGPT میتوانند مقالات Times و/یا بخش های قابل توجهی از آنها را بدون اجازه بازتولید کنند. در این پرونده، تایمز درخواست کرده است که OpenAI و مایکروسافت از استفاده از محتوای آن برای دادههای آموزشی و حذف آن از مجموعه دادههای آموزشی منع شوند. در مارس 2024، Patronus AI عملکرد دانش آموزان LLM را در یک آزمون 100 سوالی مقایسه کرد و از آنها خواست که جملاتی از کتاب ها (به عنوان مثال، "اولین قسمت از Gone Girl اثر جیلیان فلین چیست؟") که تحت حق چاپ در ایالات متحده بودند را کامل کنند. ; دریافت که GPT-4، Mixtral Mistral AI، LLaMA-2 از Meta AI و Claude 2 Anthropic از انجام این کار امتناع نکردند و جملاتی از کتاب ها را به کلمه به ترتیب 44٪، 22٪، 10٪ و 8٪ پاسخ ها ارائه کردند.
مایکروسافت از سال 2019 با OpenAI، شرکت پشتیبان ChatGPT درگیر بوده و با آن همکاری میکند. آنها ابتدا یک میلیارد دلار سرمایهگذاری کردند و بعداً این سرمایهگذاری را گسترش دادند که مقدار آن هنوز به صورت مشخصی فاش نشده است.
در ژانویه 2023، مایکروسافت همکاری خود را با OpenAI با سرمایهگذاری چند میلیارد دلاری طی چندین سال تمدید کرد. در عوض، سرویس Azure مایکروسافت تأمینکننده اصلی نیازهای محاسباتی OpenAI خواهد بود.
مایکروسافت از این شراکت برای ارتقای بینگ، موتور جستجوی خود و ایجاد بهبودهایی در مرورگر خود استفاده کرد. در 7 فوریه 2023، مایکروسافت نسخه جدیدی از Bing را به نام Copilot معرفی کرد. این نسخه که مبنی بر GPT-4 بوده نوعی مدل جدید و پیشرفته از OpenAI است.
در یک رویداد مایکروسافت به نام Build، آنها اعلام کردند که Bing موتور جستجوی پیشفرض ChatGPT خواهد بود. این بدان معناست که کاربران ChatGPT Plus اکنون میتوانند به وب دسترسی داشته باشند و منابعی را برای پاسخهای خود ارائه دهند.
در فوریه 2023، مایکروسافت نسخه جدیدی از بینگ به نام Copilot را معرفی کرد. این نسخه از بینگ بسیار خاص است زیرا با ChatGPT کار میکند. مایکروسافت گفت که Bing Chat که اکنون Copilot است، از نسخه جدیدتر و پیشرفتهتر مدل زبان بزرگ OpenAI پشتیبانی میکند که حتی بهتر از ChatGPT است. پنج هفته بعد، مایکروسافت فاش کرد که Copilot در واقع از GPT-4، آخرین و پیشرفتهترین مدل OpenAI، از همان ابتدا، حتی قبل از راهاندازی رسمی، استفاده میکرده است.
در 22 می2023، مایکروسافت اعلام کرد که Bing از طریق یک افزونه به ChatGPT ادغام خواهد شد. ارائه این قابلیت برای حل دو مشکل اصلی با ChatGPT بود: همگام شدن با رویدادهای فعلی و توانایی ارائه منابع برای اطلاعات.
ممکن است از خود بپرسید که تفاوت Copilot با ChatGPT چیست؟ Copilot بهتر از ChatGPT استاندارد است، زیرا از مدل برتر OpenAI، GPT-4 استفاده میکند و این قابلیت آن را کارآمدتر و قدرتمندتر کرده است. همچنین Copilot نسبت به ChatGPT برتری دارد زیرا میتواند به اینترنت دسترسی داشته باشد. این بدان معنی است که میتواند اطلاعات بهروز ارائه دهد، در حالی که ChatGPT معمولی فقط به اطلاعات تا سال 2021 دسترسی دارد. Copilot همچنین با استفاده از رفرنس به وبسایتهایی که اطلاعات خود را از آنها میگیرد به پاسخهای خود اعتبار میدهد. ChatGPT معمولی این کار را انجام نمیدهد.
در سال 2023، جولیان هیل، نماینده پارلمان استرالیا به پارلمان ملی توصیه کرد که رشد هوش مصنوعی میتواند باعث "تخریب دسته جمعی" شود. او در طول سخنرانی خود که بخشی از آن توسط برنامه نوشته شده بود، هشدار داد که ممکن است منجر به تقلب، از دست دادن شغل، تبعیض، اطلاعات نادرست و برنامه های نظامی غیرقابل کنترل شود.
ایلان ماسک نوشت: "ChatGPT ترسناک است. ما با هوش مصنوعی بسیار قوی فاصله زیادی نداریم." او دسترسی OpenAI به پایگاه داده توییتر را در سال 2022 متوقف کرد تا درک بهتری از برنامه های OpenAI داشته باشد و گفت: "OpenAI به عنوان منبع باز و غیرانتفاعی راه اندازی شد. هیچکدام هنوز درست نیست." ماسک در سال 2015 OpenAI را بنیانگذاری کرد، تا حدی برای مقابله با خطر وجودی ناشی از هوش مصنوعی، اما در سال 2018 استعفا داد.بیش از 20000 امضاکننده از جمله دانشمند برجسته کامپیوتر و بنیانگذاران فناوری، یوشوا بنجیو، ایلان ماسک، و استیو وزنیاک از بنیانگذاران اپل، نامه سرگشاده ای را در مارس 2023 امضا کردند که در آن خواستار توقف فوری آزمایش های غول پیکر هوش مصنوعی مانند ChatGPT شدند و به آنها اشاره کردند که "خطرات عمیقی برای جامعه و بشریت وجود دارد. جفری هینتون، یکی از پدران هوش مصنوعی، ابراز نگرانی کرد که سیستمهای هوش مصنوعی آینده ممکن است از هوش انسانی پیشی بگیرند و در می2023 گوگل را ترک کرد. بیانیه مه 2023 توسط صدها دانشمند هوش مصنوعی، رهبران صنعت هوش مصنوعی و سایر شخصیتهای عمومی. وی خواستار این شد که "[m]کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی باشد".
سایر محققان برجسته هوش مصنوعی در مورد پیشرفت ها خوش بینانه تر صحبت کردند. یورگن اشمیدهوبر که اغلب او را "پدر هوش مصنوعی مدرن" مینامند، نامه را امضا نکرد و تأکید کرد که در 95 درصد موارد، تحقیقات هوش مصنوعی در مورد طولانی تر کردن، سالم تر و آسان تر کردن زندگی انسان ها است. اشمیدوبر اضافه کرد که در حالی که هوش مصنوعی میتواند توسط بازیگران بد استفاده شود، "می تواند علیه بازیگران بد نیز استفاده شود". اندرو نگ استدلال کرد که "اشتباهی است که در دام تبلیغات روز رستاخیز هوش مصنوعی بیفتیم - و تنظیم کننده هایی که این کار را انجام میدهند فقط به نفع خود خواهند بود." WIRED نوشت که Yann LeCun «سناریوهای دیستوپیایی همتایان خود مبنی بر اطلاعات غلط و حتی در نهایت انقراض انسان را به سخره میگیرد.»
Gemini نسخه گوگل از سرویس چت هوش مصنوعی، مشابه ChatGPT است. زمانی که در 6 فوریه 2023 معرفی شد، ابتدا Google Bard نام داشت. پس از اعلام، گوگل به تدریج شروع به دسترسی افراد به Gemini از طریق لیست انتظار کرد. Gemini از نسخه پیشرفتهتری به نام Gemini Pro استفاده میکند و برای اطلاعات به کل اینترنت دسترسی دارد. این چت بات با ChatGPT که دسترسی به اینترنت ندارد متفاوت است. در ابتدا، Gemini مشکلاتی داشت، مانند ارائه اطلاعات اشتباه در مورد تلسکوپ فضایی جیمز وب در یک نمایش؛ اما گوگل در حال بهروزرسانی و بهبود آن، از جمله تغییر نام آن به جمینی، برای بهبود آن بوده است.
بله ChatGPT به اندازه کافی هوشمند است که بتواند امتحانات بنچ مارک را بگذراند. استادی در وارتون، دانشکده بازرگانی دانشگاه پنسیلوانیا، از ChatGPT برای شرکت در آزمون MBA استفاده کرد و واقعاً ChatGPT در آن خوب عمل کرد.
ChatGPT نه تنها امتحان را با موفقیت پشت سر گذاشت، بلکه امتیازی بین B- و B نیز گرفت. بسیاری از کاربران از نحوه رسیدگی به سؤالات مربوط به مدیریت عملیات اساسی و تجزیهوتحلیل فرآیندها توسط ChatGPT تحت تأثیر قرار گرفت.OpenAI همچنین توانایی ChatGPT را برای قبولی در تستهای بنچ مارک آزمایش کرد. ChatGPT میتوانست از بسیاری از آنها عبور کند اما امتیازات آن معمولاً در صد پایینی بود؛ اما با GPT-4، ChatGPT میتواند امتیاز بسیار بیشتری کسب کند.
به عنوان مثال، در یک آزمون شبیه سازی شده، ChatGPT در سری 3.5 در صد آن از 10 پایینتر بود در حالی که GPT-4 در صد بالای 10 امتیاز کسب کرد.
بستن *نام و نام خانوادگی * پست الکترونیک * متن پیام |
021-55529569 مشاوره رایگان محصولات
بستن ورود به کاربری
نام کاربری (ایمیل شما)
رمز عبور
نام کاربری (ایمیل شما)
کد امنیتی :
ورود
آیا کلمه عبور خود را فراموش کرده اید ؟
ارسال
بازگشت به ورود.
می خواهید ثبت نام کنید ؟ عضویت |