اخبار جهاناینترنت و کامپیوتر

جنگ جستجوگرهای اینترنتی!/ چگونه Chat GPT دنیای هوش مصنوعی را تکان داد

روزهای بروجرد- چت جی پی تی (Chat GPT) چت بات وایرالی از استارت آپ هوش مصنوعی Open AI جرقه جنگی دوباره برای برتری هوش مصنوعی را زده است جنگی که در آن غول‌های فناوری گوگل و مایکروسافت برای استفاده از این فناوری برای تغییر نحوه استفاده جهان از موتور‌های جستجو با یکدیگر رقابت می‌کنند.

فرارو: به گزارش ویک، چت بات تازه متولد شده چت جی پی تی از زمان آغاز به کار خود در ماه دسامبر به پدیده‌ای جهانی تبدیل شده است. تنها پنج روز پس از انتشار آن ادعا می‌شود که یک میلیون نفر برای آزمایش این چت بات که می‌تواند به سرعت و به طور یکپارچه محتوای پیشرفته‌ای مانند مقاله، شعر و داستان تولید کند ثبت نام کرده بودند. روزنامه “نیویورک تایمز” گزارش داده که تا ماه ژانویه چت جی پی تی ماهانه ۱۰۰ میلیون کاربر فعال داشته که همین موضوع آن را به یکی از ” سریع‌ترین محصولات نرم افزاری در حال رشد در حوزه حافظه” تبدیل کرد.

در مقایسه با آن در مورد “تیک تاک” ۹ ماه به طول انجامید تا تعداد کاربران آن اپلیکیشن به ۱۰۰ میلیون کاربر رسید و برای اینستاگرام این تعداد کاربر ظرف مدت دو سال حاصل شد.

چگونه چت جی پی تی جنگ‌های جستجوی اینترنتی را دوباره شعله ور ساخته است؟

روزنامه “نیویورک تایمز” می‌نویسد که محبوبیت این نرم افزار باعث شده تا سرمایه گذارانی که تلاش می‌کنند وارد موج بعدی رونق هوش مصنوعی شوند تحرک بیش‌تری داشته باشند. برای مثال، Open AI اخیرا قراردادی ۱۰ میلیارد دلاری با مایکروسافت امضا کرده است. هم چنین آن شرکت با Buzz Feed نیز قراردادی امضا کرده که قصد دارد از فناوری Open AI برای ایجاد فهرست‌ها و آزمون‌ها استفاده کند و در نتیجه با آن شرکت شریک خواهد شد. اعلام این خبر سبب شد تا ارزش سهام Buzz Feed بیش از دو برابر افزایش یابد.

در میان شیفتگی فزاینده در مورد چت جی پی تی سایر شرکت‌های فناوری معرفی چت بات‌های رقیب کار خود را آغاز کرده‌اند. مدیران گوگل در پاسخ به نرم‌افزار Open AI “کد قرمز” را اعلام کردند و توسعه بسیاری از محصولات هوش مصنوعی را به سرعت ردیابی کردند تا شکاف بین خود و رقبای نوظهورشان را کاهش دهند.

مدت کوتاهی پس از آن این شرکت اعلام کرد که بهتر است کاربران‌اش نگاهی به چت بات بارد (Bard) داشته باشند که مشابه چت جی پی تی است و از اطلاعات اینترنت برای ایجاد پاسخ‌های متنی به پرسش‌های کاربران استفاده می‌کند.

سپس در ماه فوریه مایکروسافت اعلام کرد که چت جی پی تی را در “بینگ” (Bing) موتور جستجوی خود و سایر محصولات ادغام خواهد کرد و گوگل در پاسخ اعلام کرد که هوش مصنوعی مولد را نیز در قابلیت‌های جستجوی خود ادغام خواهد کرد.

“ریچارد واترز” از “فایننشال تایمز” می‌گوید: “جنگ‌های جستجوی اینترنتی بازگشته‌اند. هوش مصنوعی مولد اولین جبهه جدید را از زمانی که گوگل بیش از یک دهه پیش با چالش هماهنگ بینگ ساخته مایکروسافت مقابله کرد در نبرد برای تسلط بر جستجو گشوده است. به طور خاص، برای گوگل این مسابقه تسلیحاتی می‌تواند تهدیدی جدی برای کسب و کار اصلی آن شرکت در عرصه جستجو باشد عرصه‌ای که به شدت بر تبلیغات دیجیتال متکی است”.

“عمرو عوادالله” کارمند سابق گوگل که اکنون Vectara یک پلتفرم جستجوی مبتنی بر LLM را اداره می‌کند به “نیویورک تایمز” می‌گوید:” گوگل یک مشکل در مدل کسب و کار دارد. اگر گوگل به شما پاسخ کاملی برای هر پرسش بدهد روی هیچ آگهی‌ای کلیک نخواهید کرد”.

چرا گوگل خود را در مخمصه قرار داده است؟

شبکه خبری “سی ان بی سی” اشاره کرده این واقعیت که گوگل در موقعیتی قرار گرفته که قصد دارد به نوعی عقب ماندگی‌اش در این عرصه را برطرف سازد قدری طعنه‌آمیز است به ویژه آن که آن شرکت فناوری از اولین مراحل بازی هوش مصنوعی مکالمه‌ای پیشرفته در این عرصه حضور داشته است.

در واقع، مدیر عامل گوگل در سال ۲۰۱۶ میلادی در تلاش بود تا با انجام تغییر جهت گوگل را به عنوان اولین شرکت هوش مصنوعی معرفی کند. در سال ۲۰۱۸ میلادی گوگل Duplex را معرفی کرد “یک سرویس هوش مصنوعی با شباهت خیره کننده شبیه صدای انسان” که برای تقلید از کلام انسان حین برقراری تماس‌های خودکار با رستوران‌هایی که امکان رزرو آنلاین را ندارند طراحی شده بود. نشریه “فوربس” گزارش داده بود در حالی که بسیاری از این برنامه شگفت زده شده بودند برخی دیگر قدری آشفته و بیقرار بودند. رسانه‌ها نسبت به اخلاقی بودن یا نبودن برنامه‌ای که به شکل عمدی کارکنان را فریب می‌دهد ابزار نگرانی کرده بودند.

در آن زمان “گری مارکوس” و “ارنست دیویس” استادان دانشگاه نیویورک در مقاله‌ای در روزنامه “نیویورک تایمز” آن را تا حدی “ترسناک” خواندند. “زینب توفکچی” جامعه شناس و نویسنده در توئیتی درباره آن برنامه نوشته بود:”سیلیکون، ولی از نظر اخلاقی در وضعیتی گمشده و بی سکان به سر می‌برد و هیچ چیزی نیاموخته است”.

“فوربس” خاطر نشان می‌سازد اگرچه گوگل در مورد عینک هوشمند گوگل گلس خود که در سال ۲۰۱۲ میلادی معرفی شد با انتقادات مشابهی مواجه شده بود انتشار برنامه Duplex یک “افتضاح کامل” بود. گوگل به جای آن که محور جدید خود را به سمت هوش مصنوعی تحت رهبری “ساندار پینچای” تغییر دهد به یادگاری از بی خبر بودن سیلیکون، ولی تبدیل شد: فناوری جالبی که به فقدان آینده نگری انسانی وابسته است.

دو مدیر سابق آن شرکت به “فوربس” می‌گویند که منفی بودن راه اندازی Duplex یکی از چندین عاملی بود که سبب شد تا گوگل در معرفی محصولات مبتنی بر هوش مصنوعی کُند شود. هم چنین، ممکن است مدل زبان گوگل یا LaMDA را برای اپلیکیشن‌های گفتگو به خاطر آورید که پس از ادعای یک از مهندسان آن شرکت که مبنی بر آن که اپلیکیشن دستخوش احساسات است درگیر بحث و جدل شد. ادعا‌های او سپس از سوی اعضای جامعه هوش مصنوعی محکوم شد (LaMDA مسئول فناوری پشتیبانی در قلب بارد است).

مناقشات در میان کارکنان هوش مصنوعی گوگل نیز در جریان بوده است. پس از امضای قرارداد گوگل با وزارت دفاع ایالات متحده (پنتاگون) در سال ۲۰۱۸ میلادی به منظور ایجاد فناوری برای پروژه Maven که تلاشی برای استفاده از هوش مصنوعی به منظور بهبود حملات پهپادی بود با انتقاد پرسنل آن شرکت مواجه شد. گوگل پس از عقب نشینی از قرارداد از تایید آن خودداری ورزید و یک راهنمای اخلاقی برای توسعه فناوری هوش مصنوعی تحت عنوان “اصول هوش مصنوعی” را منتشر کرد.

در سال ۲۰۲۰ میلادی “تیمنیت گبرو” و “مارگارت میچل” از پیشتازان عرصه اخلاق در عرصه هوش مصنوعی و از کارکنان گوگل با انتشار مقاله‌ای از وجود “تعصبات در فناوری هوش مصنوعی مورد استفاده در موتور جستجوی گوگل” انتقاد کردند. آنان پس از انتشار این مقاله از گوگل اخراج شدند. “جف دین” رئیس تحقیقات گوگل بعدا اعتراف کرد که واحد هوش مصنوعی به شدت بدنام شده است.

میچل به “فوربس” گفته بود: “بسیار واضح است که گوگل در مسیری قرار داشت که به طور بالقوه می‌توانست بر عرصه انواع مکالماتی که اکنون با چت جی پی تی داریم تسلط داشته باشد. با این وجود، مجموعه‌ای از تصمیمات کوته نگرانه آن شرکت را در جایگاهی قرار داد که اکنون نگرانی زیادی در مورد هر نوع پس زده شدن دارد”.

مفاهیم اخلاقی و قانونی موتور‌های جستجوی یکپارچه هوش مصنوعی چه هستند؟

“الیور دارسی” تحلیلگر شبکه خبری “سی ان ان” می‌نویسد: “علیرغم محبوبیت وایرال چت جی پی تی پرسش پیرامون درجه اخلاق حاکم بر این تولید کننده متن به صورت پرسش و موضوعی قوی باقی می‌ماند به طور خاص از آنجایی که با سرعتی سرسام آور در حال ورود به بازار است”.

او می‌افزاید: “ما در حال ایجاد دوران رسانه‌های اجتماعی هستیم. اگر اقدامات احتیاطی جدی انجام نشود چت بات‌های هوش مصنوعی باعث ایجاد پیامد‌های ناخواسته‌ای خواهند شد. می‌توان ظهور سریع یکپارچه سازی هوش مصنوعی را معادل ساخت پارک ژوراسیک، گذاشتن برخی علائم خطر روی نرده ها، اما باز گذاشتن همه دروازه‌ها دانست”.

او اشاره می‌کند که دانشمندان هنوز نتوانسته‌اند مسائل مرتبط با مرتبط با سوگیری و تعصب در هوش مصنوعی را حل کنند و این فناوری کماکان مستعد ادغام اطلاعات نادرست به عنوان واقعیت است.

چالش مدل‌های زبانی جدید این است که واقعیت و داستان را با هم ترکیب می‌کنند. این وضعیت باعث انتشار اطلاعات نادرست می‌شود. هم چنین مدل‌های زبانی جدید قادر به درک محتوا نیست. بنابراین، مدل‌های زبانی جدید قادر هستند محتوای کاملا منطقی، اما نادرست را منتشر کنند و آن را با اطمینان کامل ارائه دهند.

یک نمونه موردی برای این موضوع “بارد” است. در یک ویدئوی تبلیغاتی معرفی آن که به طور گسترده به اشتراک گذاشته شده “بارد” به اشتباه به درخواست جستجو پاسخ داد. این پاسخ نادرست باعث کاهش ۱۰۰ میلیارد دلاری ارزش بازار “آلفابت” شرکت مادر گوگل شد. کارکنان گوگل نیز از این موضوع انتقاد کرده و در یک نشست داخلی آن را نتیجه معرفی “عجولانه” محصول، وجود “مشکلات” و رخدادی “غیر گوگلی” دانستند.

دارسی می‌گوید: “گوگل و مایکروسافت با ادراکات متقابل خود به خوبی دریافته‌اند که فناوری هوش مصنوعی این قدرت را دارد که جهان را آن گونه که ما می‌شناسیم تغییر دهد. با این وجود، با توجه به پیچیدگی‌های زیادی که هنوز برطرف نشده باید دید که آیا آنان از اصل “سریع حرکت کن و چیز‌ها را بشکن” سیلیکون، ولی پیروی خواهند کرد یا خیر اصلی که درگذشته باعث ایجاد آشفتگی زیادی شده بود”.

جان لوفلر در مقاله‌ای در Tech Radar اشاره می‌کند که مشکل احتمالی اطلاعات نادرست نیز می‌تواند به یک مسئولیت برای گوگل و مایکروسافت تبدیل شود، زیرا در نحوه ارائه نتایج موتور‌های جستجو تاثیر می‌گذارد چرا که موتور‌های جستجو با استفاده از هوش مصنوعی برای بازنویسی پاسخ به پرسش‌ها در نهایت ناشر آن محتوا می‌شوند حتی اگر کار شخص دیگری را به عنوان منبع ذکر کنند.

در ادغام ابزار‌های هوش مصنوعی و بر عهده گرفتن نقش ناشر شرکت‌های فناوری مسئولیت قانونی ناشی از انتشار اطلاعات نادرست احتمالی را بر عهده می‌گیرند.

“لوفلر” می‌افزاید: “مضرات قانونی ناشر بودن به همان اندازه بی نهایت و زیاد است که افترا زدن به یک فرد یا انتشار سخنان خطرناک و محافظت نشده مضر می‌باشد. بنابراین، نمی‌توان پیش‌بینی کرد که یکپارچه سازی هوش مصنوعی تا چه اندازه آسیب رسان خواهد بود”.

 

 

 

تگ ها

مقالات مشابه

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد.

این مطلب هم پیشنهاد میشود

Close
Close