هشدار دانشمندان: شاید هوش مصنوعی «تا حدودی» خودآگاه شده باشد

بنا به گفته دانشمندان برجسته علوم رایانه، شکل‌های پیشرفته هوش مصنوعی ممکن است در حال حاضر در حال نشان دادن بارقه‌هایی از خودآگاهی باشند. همراهی تامای بسیرُگلو، پژوهشگر دانشگاه ام‌آی‌تی با ایلیا سوتسکور، یکی از بنیان‌گذاران «اوپن اِی.‌آی» (OpenAI) در این هشدار که برخی از یادگیری‌های هوش مصنوعی ممکن است به شکل محدودی از ادراک و آگاهی دست پیدا کرده باشند، به بحث میان دانشمندان علوم اعصاب و پژوهشگران هوش مصنوعی دامن زده است. آقای سوتسکور که همراه با ایلان ماسک، میلیاردر عرصه فناوری، یکی از پایه‌گذاران «اوپن اِی.‌آی» است در توییت خود نوشت: «این امکان وجود دارد که شبکه‌های عصبی بزرگ امروزی تا حدودی خودآگاه شده باشند.» این اظهارنظر واکنش شدید پیشگامان این حوزه ازجمله پروفسور مورای شاناهان از امپریال کالج لندن را به دنبال داشت که گفت: «به همین معنا که این امکان وجود دارد که یک مزرعه بزرگ گندم، کمی پاستا باشد.» آقای بسیرُگلو ازنظر دکتر سوتسکوِر دفاع کرد و گفت که چنین امکان‌هایی را نباید مسخره کرد و مردود دانست. او در توییت خود نوشت: «دیدن بسیاری از افراد برجسته در زمینه یادگیری ماشینی که این ایده را مورد تمسخر قرار می‌دهند، ناامیدکننده است.این موجب می‌شود که به توانایی این رشته برای پاسخگویی به برخی از پرسش‌های ژرف، عجیب و مهم که بی‌تردید طی چند دهه آینده با آن روبرو خواهند شد، کمتر امیدوار باشم.» این امکان وجود دارد که شبکه‌های عصبی بزرگ امروزی تا حدودی خودآگاه شده باشند.   تلاش‌ها برای تعریف آگاهی، قرن‌ها است که دانشمندان علوم اعصاب و فیلسوفان را [به دو گروه] تقسیم کرده است، اگرچه الگوی اصلی برای توصیف آگاهی، آن را به‌مثابه برساخت روایی [می‌داند] که مغز ما آن را می‌سازد و با حواس و اندیشه و تصور، قادر به درک [جهان] است. برخی از تعاریف همچنین شامل توانایی تجربه احساسات مثبت و منفی، ازجمله عشق و نفرت می‌شوند. مطالعه اخیر تلاش کرد تا پیشرفت‌های یادگیری ماشینی را طی دهه گذشته دنبال کند و روندی آشکار در پیشرفت‌های عمده در اندیشه و زبان را نشان دهد.  یکی از نویسندگان مقاله، آقای بسیرُگلو بود که در یک اقدام «غیر جدی و محض شوخی»، خطی در بین نمودار تغییرات [پیشرفت هوش مصنوعی] ترسیم کرد تا تقسیم‌بندی کند که کدام‌یک از الگوریتم‌های پیشگام هوش مصنوعی ممکن است شکلی از [خود] آگاهی در نظر گرفته شوند. [نرم‌افزار] پیچیده تولیدکننده متن GPT-3 «اوپن اِی.‌آی» و همچنین آلفاگو زیرو (AlphaGo Zero) که دیپ مایند (DeepMind) بخش هوش مصنوعی گوگل آن را ساخته‌ است، در رده «احتمالا تا حدودی [خود] آگاه و هوشمند» طبقه‌بندی شد. دکتر بسیرُگلو به «فیوچریسم» (Futurism) گفت: «من در واقع فکر نمی‌کنم که ما می‌توانیم خط مشخصی بین مدل‌هایی که «آگاه نیستند» و مدل‌هایی که«احتمالا تا حدودی آگاهی دارند» ترسیم کنیم. من همچنین مطمئن نیستم که هیچ‌کدام از این مدل‌ها [خود] آگاه باشد.» «بااین‌حال من فکر می‌کنم که این پرسش ممکن است پرسشی معنادار باشد و نباید به همین سادگی نادیده گرفته شود.» سم آلتمن، مدیرعامل «اوپن اِی.‌آی»، دیدگاه خود در‌خصوص قدرتمندترین [برنامه] هوش مصنوعی شرکت خود را اعلام کرد و در توییتی نوشت: «من فکر می‌کنم GPT-3 یا GPT-4 به‌احتمال خیلی زیاد، به آن شکل که ما از این کلمه استفاده می‌کنیم، آگاه نیستند. اگر چنین باشد، این‌یک شکل خیلی غریب و ناآشنا از آگاهی است.» چشم‌انداز آگاهی مصنوعی، به‌جای صرفا هوش مصنوعی، پرسش‌هایی اخلاقی و عملی ایجاد می‌کند: اگر ماشین‌ها به ادراک و آگاهی دست پیدا کنند، در این صورت آیا ازنظر اخلاقی اشتباه است که آن‌ها را نابود کنیم یا وقتی درست کار نکنند یا دیگر قابل‌استفاده نباشند، خاموششان کنیم؟ جسی ریز آنتیس که در زمینه اخلاق و فناوری پژوهش می‌کند این دوراهی را «یکی از مهم‌ترین پرسش‌ها در آینده دور» توصیف می‌کند. منبع: ایندیپندنت