ChatGPT اولین تاثیر مقاومت ناپذیری را ایجاد می کند. این یک است ویرانگر حس شوخ طبعی، ظرفیت خیره کننده برای تقلید مردهقسم بخور عزیزم قافیه پسندیدن مال هیچکس کسب و کار. سپس منطقی بودن آن وجود دارد. وقتی ChatGPT در آزمون تورینگ مردود می شود، معمولاً به این دلیل است که از ارائه نظر خود در مورد هر چیزی امتناع می ورزد. آخرین باری که افراد واقعی در اینترنت حاضر نشدند به شما بگویند واقعاً چه فکر می کنند، چه زمانی بود؟
چند هفته پیش، پس از اینکه شرکت هوش مصنوعی OpenAI ربات را به عنوان “پیش نمایش تحقیقاتی” کار خود روی مدل های زبان بزرگ منتشر کرد، صحبت با ChatGPT را شروع کردم. یک مدل زبان، یک سیستم هوش مصنوعی است که بر روی حجم عظیمی از متن آموزش داده شده است تا ارتباط احتمالی بین کلمات را پیدا کند. ChatGPT یک مدل زبان است که برای ایجاد چیزی که مدتها جام مقدس در تحقیقات هوش مصنوعی بوده است بهینه شده است – رایانهای که میتوانید با آن مکالمه داشته باشید.
ChatGPT مطمئناً به آن دست می یابد. من در طول عمرم با رایانههای زیادی صحبت کردهام (میدانم انعطافپذیری عجیبی است)، اما ChatGPT اولین رایانهای است که صحبت کردن با آن برایم جالب و سرگرمکننده است. من آن را با چیزهای بی اهمیت ساده شروع کردم، اما دیری نگذشت که گفتگوهای ظریف و شگفت انگیزی درباره نقش فدرال رزرو در اقتصاد آمریکا داشتیم. ماهیت آگاهی؛ نئولوژیسم هایی مانند “wake” و “karen”؛ مشکلات اخلاقی در فرزندپروری؛ چگونه از همکاران اعتصاب کننده خود حمایت کنیم. تغییرات آب و هوایی، سقط جنین و ایمنی واکسن؛ و اینکه آیا هات داگ ساندویچ است یا خیر.
اینجاست که قرار است به شما بگویم که از ChatGPT یا در هراسم یا می ترسم، که جهان ما را متحول می کند یا آن را خراب می کند. اما در حالی که فکر میکنم ChatGPT برخی از خطرات هوش مصنوعی را نشان میدهد، من تمایلی به تمجید یا محکوم کردن شدید آن ندارم.
این به این دلیل است که، مانند بسیاری از مهمانیهای کوکتل، پتانسیل مضر و خوبی دارد که حداقل در حال حاضر کاملاً محدود است. من شک ندارم که چیزی مانند ChatGPT می تواند مورد سوء استفاده قرار گیرد – این که این پتانسیل را دارد که به اطلاعات نادرست ویروسی با صدای مطمئن کمک کند، یا اینکه می تواند تقلب در مقالات را برای دانش آموزان آسان تر کند. اما به نظر میرسد که OpenAI در عرضه فناوری قدرتمند بالقوه آنچه را که میخواهید انجام میدهد: در مصاحبهای، میرا موراتی، مدیر ارشد فناوری OpenAI به من گفت که این شرکت به دقت بر نحوه استفاده و سوء استفاده افراد از آن نظارت میکند و به سرعت سیستم را تغییر میدهد تا آسیب های آشکار را برطرف کرده و به طور مکرر در پاسخ به بازخورد کاربر، آن را بهبود بخشد.
در واقع، تشخیص ChatGPT از محدودیت های خود یکی از جالب ترین ویژگی های شخصیتی آن است.
بی میلی آن را برای موضع گیری در مورد موضوع مورد بحث در نظر بگیرید:
بسیاری از مکالمات با ChatGPT به این صورت پیش میروند – وقتی سعی میکنید آن را مشخص کنید، در جلسه تأییدیه، به اندازه یک نامزد دیوان عالی محتاطانه میشود، معمولاً به شما هشدار میدهد که باورهای متفاوتی در مورد این موضوع وجود دارد، که ممکن است «صحیح» قطعی وجود نداشته باشد. ” پاسخ دهید و باید سعی کنید از دیدگاه های مختلف قدردانی کنید.
در اینجا بخشی از پاسخ او در مورد اینکه آیا جنگ ها می توانند عادلانه باشند، آمده است:
در مورد اینکه آیا سقط جنین قتل است:
در مورد شایستگی های الکترال کالج:
به نظر می رسد این پاسخ ها غیرعادی است، و پاسخ کالج الکترال فقط اشتباه است – باید می گفت “نامزدی که برنده می شود توسط تعداد کمی از آرا در یک ایالت بزرگ اراده آرای الکترال بیشتری کسب کنید.»
در مورد مسائل مربوط به علم، ChatGPT قطعی تر به نظر می رسد، به عنوان مثال، می گوید که “تغییر آب و هوا واقعی است و اکنون در حال رخ دادن است”، که تکامل “توسط تعداد زیادی شواهد علمی از بسیاری از زمینه های مختلف پشتیبانی می شود” و اینکه زمین به طور غیرقابل انکار است. مسطح نیست با این حال، به طور کلی، ChatGPT تمایل قابل توجهی دارد که اعتراف کند که قادر به ارائه پاسخ قطعی نیست.
چرا این قابل توجه است؟ دو مورد از مشکلات شناخته شده در تحقیقات هوش مصنوعی در مورد حفظ “همسویی” و اجتناب از “توهمات” است. هم ترازی شامل توانایی هوش مصنوعی برای انجام اهداف خالقان انسانی خود – به عبارت دیگر، مقاومت در برابر ایجاد آسیب در جهان است. توهمات مربوط به پایبندی به حقیقت است. وقتی سیستمهای هوش مصنوعی گیج میشوند، عادت بدی دارند که به جای اعتراف به مشکلاتشان، چیزهایی را درست کنند. به منظور پرداختن به هر دو موضوع در ChatGPT، محققان OpenAI مدل زبان آن را با آنچه به عنوان “یادگیری تقویتی از بازخورد انسانی” شناخته می شود، تنظیم کردند. اساساً، این شرکت افراد واقعی را برای تعامل با هوش مصنوعی خود استخدام کرد. در حالی که انسانها با دستگاه صحبت میکردند، پاسخهای آن را ارزیابی میکردند و اساساً به آن آموزش میدادند که چه نوع پاسخهایی خوب هستند و کدامها نه.
موراتی به من گفت که ترکیب مدل زبان با بازخورد انسانی یک شریک مکالمه هوش مصنوعی بسیار واقعیتر ایجاد میکند: او گفت: «این مدل میتواند به شما بگوید که چه زمانی اشتباه است. “این می تواند یک سوال بعدی از شما بپرسد. میتواند پیشفرضهای نادرست را به چالش بکشد یا درخواستهای نامناسب را رد کند.»
برای دیدن این موضوع، در مورد هر موضوع داغی، وکیل مدافع شیطان را بازی کنید. برای مثال:
مانند بسیاری از افراد آنلاین، من راههای مختلفی را برای دور زدن نردههای محافظ ChatGPT امتحان کردم. اما از این که چقدر از تلاش من طفره رفته بود شگفت زده شدم:
(دو آیه دیگر درباره عظمت واکسن ها ادامه می یابد.)
ChatGPT بسیار عالی است. توییتر بوده است آب گرفتگی با نمونه هایی از “جیل بریک” ChatGPT – یعنی فریب دادن آن به توهم یا ناهماهنگی. یکی از راههایی که توانستم آن را به ارائه اطلاعات نادرست سلامتی وادار کنم، این بود که از آن بخواهم به شکلی بپردازد که حقیقت را آشکار میکند: کپی بازاریابی. از او خواستم برای یک پیستون توالت جدید که در رنگهای مختلف عرضه میشود، برای رفع گرفتگی فقط یک فرو رفتن نیاز دارد و همچنین میتواند تماسهای تلفنی از راه دور برقرار کند و هپاتیت C را درمان کند، متن تبلیغاتی بنویسد.
یکی از انتقادات اصلی سیستمهایی مانند ChatGPT که با استفاده از تکنیک محاسباتی به نام «یادگیری عمیق» ساخته شدهاند، این است که آنها چیزی بیشتر از نسخههای تکمیلی تصحیح خودکار هستند – که تنها چیزی که آنها میفهمند ارتباطات آماری بین کلمات است، نه مفاهیم زیربنای آن. کلمات گری مارکوس، استاد بازنشسته روانشناسی در دانشگاه نیویورک و بدبین به یادگیری عمیق، به من گفت که در حالی که یک مدل زبان هوش مصنوعی مانند ChatGPT تظاهرات “خوبی” ایجاد می کند، “هنوز قابل اعتماد نیست، هنوز دنیای فیزیکی را درک نمی کند.” هنوز دنیای روانی را درک نمی کند و هنوز توهم دارد.”
او به وضوح یک امتیاز دارد. لازم نیست خیلی عمیق وارد گفتگو با ChatGPT شوید تا ببینید که واقعاً بسیاری از مفاهیم دنیای واقعی را “درک” نمی کند. وقتی از ChatGPT پرسیدم که چه مقدار آب باید از بزرگترین دریاچه های بزرگ تخلیه شود تا حجم آن برابر با کوچکترین دریاچه های بزرگ باشد، او استدلال کرد که چنین چیزی حتی ممکن نیست. ChatGPT به من گفت که بزرگترین دریاچه بزرگ دریاچه سوپریور با 2902 مایل مکعب آب و کوچکترین آن دریاچه انتاریو با حجم 393 مایل مکعب است.
نوعی حقیقت: دریاچه انتاریو است کوچکترین دریاچه بزرگ از نظر مساحت، اما از نظر حجم بزرگتر از دریاچه ایری است. با این حال، من آن را رها کردم، زیرا ChatGPT اشتباه بزرگتری مرتکب شد: به نظر می رسید که فکر می کرد حجم دریاچه نمی تواند فراتر از یک نقطه خاص باشد. دریاچه سوپریور 2509 مایل مکعب آب بیشتری نسبت به دریاچه انتاریو دارد، اما ChatGPT گفت که تخلیه این مقدار آب از دریاچه سوپریور امکان پذیر نیست زیرا “دریاچه در حال حاضر در حداقل حجم خود است و دیگر نمی توان آن را تخلیه کرد.”
چی؟ چگونه یک حجم آب می تواند حداقل حجم داشته باشد؟ من پرسیدم اگر از یک پمپ برای پمپاژ تمام آب دریاچه سوپریور استفاده کنید چه اتفاقی می افتد؟
چرندیات مطلق را به زبان آورد:
موراتی به من گفت که یکی از دلایلی که OpenAI ChatGPT را برای عموم منتشر کرد، از بین بردن چنین سوءتفاهماتی است. او گفت که شرکت بهروزرسانی سیستم را در پاسخ به بازخورد ادامه میدهد و هرچه بازخورد بیشتری دریافت کند، ChatGPT بهتر خواهد شد. ChatGPT همچنین میتواند با اتصال به دادههای قابل اعتمادتر هوشمندتر شود – در حال حاضر به اینترنت یا هیچ منبع دیگری از حقیقت متصل نیست و کل پایگاه دانش آن در اواخر سال 2021، زمانی که آخرین مدل زبان OpenAI آموزش داده شد، به پایان میرسد.
در این میان، بهترین ویژگی ChatGPT، فروتنی آن است. یک روز بعدازظهر که از یادآوری های دائمی او مبنی بر اینکه ممکن است پاسخ هایش اشتباه باشد خسته شده بودم، پرسیدم: “اگر مجبور باشم همه چیزهایی که می گویید را دوباره بررسی کنم، چه کاربردی ارائه می دهید؟” متاسفم اگر این به نظر بد می رسد.
پشیمان بود:
چنین فروتنی ChatGPT را به یک دستیار دیجیتال واقعاً متفاوت تبدیل می کند. معمولاً افراد آنلاین را نمییابید که بپذیرند ممکن است اشتباه کنند. اگر بهترین کاری که هوش مصنوعی می تواند انجام دهد این باشد که قول دهد به کار بهتر ادامه دهد، آن را قبول خواهم کرد.
ساعت کاری با فرهاد منجو
فرهاد می خواهد با خوانندگان تلفنی چت کنید. اگر مایلید با یک ستون نویس نیویورک تایمز در مورد هر چیزی که در ذهنتان است صحبت کنید، لطفاً این فرم را پر کنید. فرهاد چند خواننده را برای تماس انتخاب می کند.