کد خبر : 22783

هوش مصنوعی | آینده ی هوش مصنوعی

چرا باید هوش مصنوعی را کنترل کرد؟ استوارت راسل، دانشمند علوم رایانه در بریتانیا که به دلیل تلاش‌هایش در زمینه هوش مصنوعی شناخته شده است...

به گزارش ورنداز :

اگر جای دیگری در منظومه شمسی بوده‌اید در اینجا یک به روز رسانی مختصر اخبار هوش مصنوعی آورده شده است. اگر شبیه پاراگراف آغازین یک رمان علمی - تخیلی بد به نظر می‌رسد عذرخواهی می‌کنم. در تاریخ ۱۴ مارس ۲۰۲۳ میلادی Open AI یک شرکت مستقر در سانفرانسیسکو که مایکروسافت سرمایه گذاری عمده‌ای در آن دارد یک سیستم هوش مصنوعی به نام جی پی تی -۴ (GPT-۴) را منتشر کرد. در تاریخ ۲۲ مارس در گزارشی تهیه شده توسط گروه برجسته‌ای از محققان مایکروسافت از جمله دو عضو آکادمی‌های ملی ایالات متحده ادعا شد که جی پی تی -۴ "جرقه‌های هوش مصنوعی عمومی" را نشان می‌دهد. (هوش عمومی مصنوعی یا AGI یک کلمه کلیدی برای سیستم‌های هوش مصنوعی است که در طیف کاملی از وظایفی که ذهن انسان برای آن قابل اجرا است مطابقت دارد یا از آن فراتر می‌رود).

در تاریخ ۲۹ مارس انستیتو آینده زندگی یک موسسه غیرانتفاعی به ریاست "مکس تگمارک" پروفسور موسسه فناوری ماساچوست (ام آی تی) نامه‌ای سرگشاده منتشر کرد که در آن خواستار توقف آزمایش‌های غول پیکر هوش مصنوعی شده بود. این سند توسط چهره‌های شناخته شده‌ای مانند "ایلان ماسک" مدیر عامل تسلا، "استیو وزنیاک" بنیانگذار اپل و "یوشوا بنجیو" برنده جایزه تورینگ و همچنین صد‌ها محقق برجسته هوش مصنوعی امضا شده است. طوفان رسانه‌ای متعاقب آن کماکان ادامه دارد. من نیز از امضاکنندگان آن نامه بودم به این امید که دست کم منجر به گفتگوی جدی و متمرکز میان سیاستگذاران، شرکت‌های فناوری و جامعه تحقیقاتی هوش مصنوعی شود گفتگو در مورد اینکه چه نوع حفاظتی پیش از حرکت به جلو مورد نیاز است. زمان سخن گفتن از این که هوش مصنوعی صرفا یک تحقیق ناب می‌باشد مدت‌ها گذشته است.

پس سر و صدا برای چیست؟ جی پی تی -۴ آخرین نمونه از مدل‌های زبان بزرگ یا LLM است. یک LLM را به عنوان یک مدار بسیار بزرگ با تریلیون پارامتر قابل تنظیم در نظر بگیرید. این به عنوان یک لوح خالی آغاز شده و با ده‌ها تریلیون کلمه متن آموزش داده می‌شود به اندازه تمام کتاب‌هایی که بشریت تولید کرده است. هدف این مدل‌های زبان بزرگ آن است که در پیش بینی کلمه بعدی در دنباله‌ای از کلمات خوب عمل کند و پس از حدود یک میلیارد تریلیون اختلالات تصادفی پارامتر‌ها بسیار خوب عمل خواهد کرد.

قابلیت‌های سیستم حاصل قابل توجه است. طبق گفته وب سایت Open AI جی پی تی -۴ در طیف وسیعی از آزمون‌های ورودی دانشگاه و تحصیلات تکمیلی برتر انسان‌ها امتیاز می‌گیرد. هم چنین، جی پی تی -۴ طبق گفته سازنده آن می‌تواند قضیه فیثاغورث را در قالب غزل شکسپیر توصیف کرده و پیش نویس سخنرانی وزیر کابینه را از دیدگاه یک نماینده مجلس از هر حزب سیاسی نقد کند.

هر روز توانایی‌های شگفت‌انگیز جدیدی کشف می‌شوند. جای تعجب نیست که هزاران شرکت بزرگ و کوچک به دنبال راه‌هایی برای کسب درآمد از این عرضه نامحدود اطلاعات تقریبا رایگان هستند. مدل‌های زبان بزرگ می‌توانند بسیاری از وظایفی را انجام دهند که مشاغل صد‌ها میلیون نفر را در بر می‌گیرد به خصوص هر فردی که سر و کارش با زبان است. در حالتی خوش بینانه‌تر ابزار‌های ساخته شده مبتنی بر مدل‌های زبان بزرگ قادر به ارائه آموزش بسیار شخصی در سراسر جهان خواهند بود. با این وجود، متاسفانه مدل‌های زبان بزرگ به دلیل دچار شدن به توهم پاسخ‌های کاملا نادرست نیز ارائه می‌دهند که اغلب از سوی نقل قول‌های ساختگی پشتیبانی می‌شوند، زیرا آموزش آن هیچ ارتباطی با دنیای خارج ندارد.

مدل‌های زبان بزرگ ابزار مناسبی برای اطلاع رسانی نادرست هستند و برخی از آن‌ها به خودکشی در میان انسان‌ها دامن زده و حتی آن را تشویق می‌کرده اند. Open AI خود توصیه کرده که از "استفاده‌های پرمخاطب از این فناوری به طور کلی اجتناب ورزید". با این وجود، به نظر می‌رسد هیچ کس به آن توصیه توجهی نکرده است. آزمایش‌های Open AI نشان داد که جی پی تی -۴ می‌تواند عمدا به یک مخاطب انسانی دروغ بگوید (با این مضمون که نه، من یک ربات نیستم. من یک اختلال بینایی دارم که دیدن تصاویر را برایم دشوار می‌سازد) تا به ظاهر برای حل مشکل کمک کند.

در حالی که Open AI تلاش‌های شدیدی انجام داده تا جی پی تی -۴ به درخواست‌های حساس (برای مثال توصیه‌های پزشکی و آسیب رساندن افراد به خود) پاسخ دهد مشکل اصلی این است که نه Open AI و نه هیچ کس دیگری ایده‌ای واقعی درباره نحوه عملکرد جی پی تی -۴ ندارند.

من از متخصصی پرسیدم که آیا جی پی تی -۴ اهداف داخلی خود را توسعه داده و آن را در انتخاب خروجی‌های خود به کار می‌گیرد؟ او در پاسخ گفت: "من هیچ ایده‌ای در این باره ندارم".

در حال حاضر دلایلی فنی وجود دارد که فرض کنیم جی پی تی -۴ در توانایی خود برای شکل دهی و اجرای طرح‌های پیچیده محدود است، اما با توجه به سرعت پیشرفت دشوار است که بگوییم نسخه‌های آینده آن چنین توانایی‌ای را نخواهند داشت و همین موضوع منجر به یکی از نگرانی‌های اصلی نهفته در نامه سرگشاده می‌شود: چگونه می‌توانیم قدرت را بر موجودات قدرتمندتر از خودمان برای همیشه حفظ کنیم؟

ایده اصلی توقف پیشنهادی نامه سرگشاده این است که هیچ سیستمی نباید منتشر شود تا زمانی که توسعه دهنده به طور قانع کننده نشان دهد که خطر بی دلیل ندارد. این دقیقا مطابق با اصول هوش مصنوعی سازمان همکاری و توسعه اقتصادی است که بریتانیا، ایالات متحده و بسیاری از دولت‌های دیگر آن را امضا کرده‌اند: "سیستم‌های هوش مصنوعی باید در تمام چرخه عمر خود قوی و ایمن باشند تا در شرایط استفاده عادی، استفاده قابل پیش بینی یا سوء استفاده یا سایر شرایط نامطلوب عملکرد مناسبی داشته و خطر ایمنی غیر منطقی را ایجاد نکنند".

این وظیفه توسعه دهنده است که نشان دهد سیستم‌هایش این معیار‌ها را برآورده می‌سازند. من فکر نمی‌کنم فردا "ساتیا نادلا" مدیرعامل مایکروسافت با من تماس بگیرد و بگوید: "موافق هستم ما تسلیم شده و متوقف می‌شویم"!

در سخنرانی‌های تازه در برکلی این ایده مطرح شد که هیچ امکانی وجود ندارد که تمام شرکت‌های بزرگ فناوری متوقف شوند مگر آن که دولت‌ها مداخله کنند؛ بنابراین ضروری است که دولت‌ها بحث‌های جدی را با کارشناسان شرکت‌های فناوری و با یکدیگر آغاز کنند. به نفع هیچ کشوری نیست که سیستم‌های هوش مصنوعی را توسعه دهد و منتشر کند اگر قادر به کنترل آن نباشد. اصرار بر اقدامات احتیاطی معقول به معنای ضدیت با صنعت نیست.

چرنوبیل زندگی بسیاری از انسان‌ها را نابود کرد، اما تلفات و هزینه‌های زیادی بر صنعت هسته‌ای جهانی نیز تحمیل کرد. من یک محقق هوش مصنوعی هستم. من نمی‌خواهم حوزه تحقیقاتی ام از بین برود. بشریت چیز‌های زیادی برای به دست آوردن از هوش مصنوعی دارد. همزمان بشریت چیز‌های زیادی برای از دست دادن در برابر هوش مصنوعی و باخت در مقابل آن را نیز دارد.

 

 

 

منبع فرارو
ارسال نظر

آنچه دیگران میخوانند :
تبلیغات متنی