یکشنبه, ۳۱ تیر ۱۴۰۳ / بعد از ظهر / | 2024-07-21
تبلیغات
تبلیغات
کد خبر: 145545 |
تاریخ انتشار : ۲۸ شهریور ۱۴۰۲ - ۰:۴۱ | ارسال توسط :
57 بازدید
۰
می پسندم
ارسال به دوستان
پ

طرفداران هوش مصنوعی درباره پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، کمک به مقابله با تغییرات آب و هوایی یا از بین بردن پیچیدگی‌های تولید انرژی از واکنش‌های همجوشی هسته‌ای بحث می‌کنند.

آیا باید همه مشاغل حتی آنهایی را هم که باعث رضایت خاطرمان می‌شوند روی عملکرد خودکار قرار دهیم؟ آیا باید ذهن‌های غیرانسانی را که ممکن است در نهایت از نظر تعداد و هوش از ما پیشی بگیرند و جایگزین ما شوند پرورش دهیم؟ آیا باید ریسک از دست دادن کنترل تمدن خود را بپذیریم؟ این سؤالات ماه گذشته در نامه‌ای سرگشاده از مؤسسه آینده زندگی، یک سازمان غیردولتی و مردم‌نهاد، پرسیده شد. این سند که خواستار یک توقف شش‌ماهه در ایجاد هوش‌های مصنوعی پیشرفته شد، توسط بزرگان فناوری از جمله ایلان ماسک امضا شده است. این بارزترین نمونه نگرانی از پیشرفت سریع هوش مصنوعی و خطرات بالقوه آن است.

مدل‌های زبان بزرگ (Large Language Models) مانند چت جی‌‎پی‌تی که به وسیله حجم عظیم داده‌های متنی آموزش دیده‌اند و می‌توانند متونی به زبان انسان تولید کنند، به پرسش‌ها پاسخ دهند و سایر کارهای مربوط به زبان را با دقت بالا انجام دهند، سازندگان خود را با استعدادهای غیرمنتظره‌شان غافلگیر کرده‌اند. چنین توانایی‌هایی شامل همه چیز از حل پازل‌های منطقی و نوشتن کد رایانه‌ای گرفته تا شناسایی فیلم‌ها از خلاصه داستان‌های نوشته‌شده است.

این مدل‌ها می‌توانند رابطه انسان‌ها با رایانه، دانش و حتی با خودشان را تغییر دهند.

طرفداران هوش مصنوعی درباره پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، کمک به مقابله با تغییرات آب و هوایی یا از بین بردن پیچیدگی‌های تولید انرژی از واکنش‌های همجوشی هسته‌ای بحث می‌کنند.

برای دیگران، قابلیت‌های هوش مصنوعی، که به نظرشان در حال حاضر نیز از درک سازندگانشان پیشی گرفته است، بیشتر با خطرات و سناریوی فاجعه علمی- تخیلی دستگاهی همراه است که از مخترع خود پیشی می‌گیرد و اغلب دارای عواقب هولناک است.

این مخلوط جوشان از هیجان و ترس، سنجش و سبک‌سنگین کردن ریسک‌ها و فرصت‌ها را دشوار می‌کند. اما می‌توان از سایر صنایع و از تغییرات فناوری گذشته درس گرفت. پس چه چیزی تغییر کرده که هوش مصنوعی را بسیار توانمندتر کرده است؟ چقدر باید ترسید؟ و دولت‌ها چه باید بکنند؟

در بخش علوم خاص، عملکرد مدل‌های زبان بزرگ و مسیر آینده آنها را بررسی می‌کنیم. موج اول سیستم‌های هوش مصنوعی مدرن، که یک دهه پیش پدیدار شد، بر روی داده‌های آموزشی با برچسب‌گذاری دقیق تکیه داشت. هنگامی که در معرض تعداد کافی نمونه برچسب‌گذاری‌شده قرار می‌گرفت، می‌توانست کارهایی مانند تشخیص تصاویر یا رونویسی گفتار را بیاموزد.

 سیستم‌های امروزی نیازی به برچسب‌گذاری اولیه ندارند و در نتیجه می‌توانند با استفاده از مجموعه داده‌های بسیار بزرگ‌تری که از منابع آنلاین گرفته شده‌اند، آموزش ببینند.

زمانی که چت جی‌‎پی‌تی در نوامبر منتشر شد، این قابلیت‌ها برای عموم مردم آشکار شد. یک میلیون نفر در عرض یک هفته و ۱۰۰ میلیون در عرض دو ماه از آن استفاده کردند. به زودی از آن برای انجام تکالیف مدرسه و سخنرانی‌های عروسی استفاده شد.

 محبوبیت چت جی‌‎پی‌تی و اقدام مایکروسافت برای گنجاندن آن در موتور جست‌وجوی Bing، شرکت‌های رقیب را نیز جهت انتشار چت‌بات‌ها برانگیخت.

برخی از این موارد نتایج عجیبی به همراه داشت. بینگ چت (Bing Chat) به یک روزنامه‌نگار پیشنهاد کرد که همسرش را ترک کند. چت جی‌‎پی‌تی توسط یک استاد حقوق به افترا متهم شده است.

 مدل‌های زبان بزرگ پاسخ‌هایی را ارائه می‌کنند که دارای حقیقت هستند، اما اغلب حاوی اشتباهات واقعی یا جعل آشکارند. با این حال، مایکروسافت، گوگل و سایر شرکت‌های فناوری شروع به استفاده از آنها در محصولات خود کرده‌اند تا به کاربران در ایجاد اسناد و انجام کارهای دیگر کمک کنند.

شتاب اخیر در قدرت و دید سیستم‌های هوش مصنوعی و افزایش آگاهی از توانایی‌ها و نقص‌های آن‌ها، این نگرانی را ایجاد کرده است که این فناوری اکنون به سرعت در حال پیشرفت است و نمی‌توان آن را به طور ایمن کنترل کرد. از این رو فراخوان توقف و نگرانی فزاینده مبنی بر این است که هوش مصنوعی نه‌تنها می‌تواند مشاغل و اعتبار انسان‌ها، بلکه موجودیت خود بشریت را نیز تهدید کند.

انقراض؟ شورش؟

ترس از اینکه ماشین‌ها مشاغل را بدزدند از قرن‌ها پیش وجود دارد. اما تاکنون فناوری جدید مشاغل جدیدی را برای جایگزینی آنهایی که ویران کرده، ایجاد کرده است. ماشین‌ها می‌توانند برخی از کارها را انجام دهند و تقاضا برای افرادی که قادر به انجام کارهایی هستند که ماشین‌ها انجام نمی‌دهند، افزایش می‌یابد.

 آیا این‌دفعه متفاوت است؟

فناوری قبلی جایگزین کارهایی که به مهارت و تخصص نیاز نداشتند، شده بود، اما مدل‌های زبان بزرگ می‌تواند کارهای اداری و تخصصی مانند خلاصه کردن اسناد و نوشتن کد را انجام دهد.

میزان خطر تهدید شدن موجودیت توسط هوش مصنوعی به شدت مورد بحث قرار گرفته است. در یک نظرسنجی که در سال ۲۰۲۲ از محققان هوش مصنوعی انجام شد، ۴۸ درصد بیان کردند که حداقل ۱۰ درصد احتمال دارد تاثیر هوش مصنوعی بسیار بد حتی منجر به انقراض انسان شود. ۲۵ درصد گفتند که خطر صفر درصد است و محققان میانه‌رو خطر را ۵ درصد اعلام کردند.

 کابوس این است که یک هوش مصنوعی پیشرفته با ساختن سم یا ویروس یا ترغیب انسان به ارتکاب اقدامات تروریستی باعث آسیب در مقیاس وسیع شود. محققان نگران‌اند که هوش‌های مصنوعی آینده ممکن است اهدافی داشته باشند که با اهداف خالقان انسانی آنها همسو نباشد.

چنین سناریوهایی را نباید نادیده گرفت اما همه اینها شامل مقدار زیادی حدس و گمان و جهشی از فناوری امروزی است. بسیاری تصور می‌کنند که هوش مصنوعی در آینده دسترسی نامحدود به انرژی، پول و قدرت محاسباتی خواهد داشت، که امروزه محدودیت‌های واقعی هستند و هوش‌های مصنوعی نیز می‌توانند در آینده از آنها محروم شوند.

علاوه بر این، کارشناسان تمایل دارند در مورد خطرات حوزه فعالیت خود در مقایسه با سایر پیش‌بینی‌ها، اغراق کنند. اعمال مقررات سنگین یا در واقع یک توقف، واکنشی بیش از حد به نظر می‌رسد و مکث نیز غیرقابل اجرا خواهد بود. مقررات لازم است، اما به دلایلی پیش‌پاافتاده‌تر از نجات بشریت. سیستم‌های هوش مصنوعی موجب نگرانی‌هایی در مورد حریم خصوصی و حقوق مالکیت معنوی می‌شوند. با پیشرفت فناوری ممکن است مشکلات دیگری نیز آشکار شوند. نکته کلیدی متعادل کردن وعده‌های هوش مصنوعی با تخمین ریسک‌ها و آماده بودن برای منطبق شدن با آن است.

تاکنون دولت‌ها سه رویکرد متفاوت را در پیش گرفته‌اند. در یک طرف طیف، بریتانیا قرار دارد که رویکرد بدون قوانین یا نهادهای نظارتی جدید اما اعمال مقررات موجود برای سیستم‌های هوش مصنوعی را در پیش گرفته است. هدف آن نیز افزایش سرمایه‌گذاری و تبدیل بریتانیا به یک ابرقدرت هوش مصنوعی است.

آمریکا نیز رویکرد مشابهی را در پیش گرفته است، اگرچه دولت بایدن اکنون به دنبال دیدگاه‌های عمومی در مورد این است که یک کتابچه قوانین احتمالاً چگونه خواهد بود. اتحادیه اروپا موضع سخت‌تری اتخاذ می‌کند. قانونِ مطرح‌شده استفاده‌های مختلف از هوش مصنوعی را بر اساس درجه خطر دسته‌بندی می‌کند، زیرا میزان خطر از مثلاً توصیه موسیقی به خودروهای خودران افزایش می‌یابد. این قانون به نظارت و افشاگری فزاینده‌ای نیاز دارد. برخی از کاربردهای هوش مصنوعی مانند تبلیغات از طریق ضمیر ناخودآگاه و بیومتریک از راه دور به‌طور کلی ممنوع هستند. شرکت‌هایی که قوانین را زیر پا بگذارند جریمه خواهند شد، گرچه از نظر برخی منتقدان این مقررات بسیار محدودکننده هستند.

اما برخی دیگر می‌گویند رویکرد سختگیرانه‌تری لازم است. دولت‌ها باید مانند داروها از یک تنظیم‌کننده اختصاصی، آزمایش‌های دقیق و تأیید اولیه قبل از انتشار عمومی استفاده کنند. چین برخی از این کارها را انجام می‌دهد و شرکت‌ها را ملزم می‌کند تا محصولات هوش مصنوعی را ثبت کنند و قبل از عرضه، بازبینی امنیتی انجام دهند. اما ایمنی ممکن است انگیزه کمتری نسبت به سیاست ایجاد کند: یک شرط کلیدی این است که خروجی هوش‌های مصنوعی ارزش اصلی سوسیالیسم را منعکس کند. 

چه باید کرد؟

اگر هوش مصنوعی به اندازه خودرو، هواپیما و دارو یک فناوری مهم باشد، که البته دلایل خوبی هم برای این باور وجود دارد، پس مانند آنها به قوانین جدید نیاز دارد. بر این اساس، مدل اتحادیه اروپا نزدیک‌ترین است. اگرچه سیستم طبقه‌بندی آن بیش از حد پیچیده است و رویکرد مبتنی بر اصول انعطاف‌پذیرتر خواهد بود.

شفاف‌سازی قانع‌کننده در مورد نحوه آموزش‌پذیری سیستم‌ها، عملکرد و نحوه نظارت آنها و نیاز به بازرسی، با قوانین مشابه در سایر صنایع قابل مقایسه خواهد بود.

می‌توان در صورت نیاز مقررات سختگیرانه‌تری را در طول زمان ایجاد کرد. همچنین ممکن است معاهدات بین‌دولتی مشابه پیمان‌هایی را که بر تسلیحات هسته‌ای نظارت می‌کنند، در صورت وجود شواهد قابل‌قبول مبنی بر خطر برای بشریت، ایجاد کرد. برای نظارت بر این خطر، دولت‌ها می‌توانند بدنه‌ای را با الگوبرداری از cern، سازمان اروپایی پژوهش‌های هسته‌ای، تشکیل دهند که همچنین می‌تواند ایمنی و اخلاقیات را مطالعه کند؛ حوزه‌هایی که شرکت‌ها به اندازه جامعه، انگیزه برای سرمایه‌گذاری ندارند.

این فناوری قدرتمند خطرات جدیدی را ایجاد می‌کند، اما فرصت‌های خارق‌العاده‌ای را نیز فراهم می‌سازد. متعادل کردن این دو به معنای راه رفتن با دقت است. یک رویکرد سنجیده امروز می‌تواند پایه‌هایی را فراهم کند که قوانین بیشتری را در آینده اضافه کرد. اما زمان شروع ساخت آن پایه‌ها اکنون است.

منبع:اکونومیست

منبع خبر ( ) است و فرصت پرس در قبال محتوای آن هیچ مسئولیتی ندارد. چنانچه محتوا را شایسته تذکر می‌دانید، خواهشمند است کد ( 145545 ) را همراه با ذکر موضوع به شماره  09800000000  پیامک بفرمایید.با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه فرصت پرس مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
    برچسب ها:
لینک کوتاه خبر:
تبلیغات
×
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط فرصت پرس در وب سایت منتشر خواهد شد
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.
  • نظرات و تجربیات شما

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    نظرتان را بیان کنید