کشورهای حاضر در اجلاس بریتانیا متعهد شدند که با خطرات بالقوه «فاجعه‌بار» هوش مصنوعی مقابله کنند.

هریس در سخنرانی خود در سفارت آمریکا گفت که جهان باید همین حالا برای مقابله با «طیف کامل» خطرات هوش مصنوعی، نه فقط تهدیدهای وجودی مانند حملات سایبری گسترده یا سلاح‌های زیستی ساخته شده توسط هوش مصنوعی، اقدام کند.

او با اشاره به یک شهروند مسن که به دلیل یک الگوریتم هوش مصنوعی معیوب یا زنی که توسط شریک بدرفتارش با عکس‌های جعلی تهدید شده بود، گفت: «تهدیدهای دیگری نیز وجود دارند که اقدام ما را می‌طلبند، تهدیدهایی که در حال حاضر باعث آسیب می‌شوند و برای بسیاری از مردم نیز احساس وجودی دارند.»

اجلاس ایمنی هوش مصنوعی، حاصل عشق و علاقه‌ی سوناک است، یک بانکدار سابقِ عاشق فناوری که می‌خواهد بریتانیا به مرکزی برای نوآوری‌های محاسباتی تبدیل شود و این اجلاس را به عنوان آغاز گفتگوی جهانی در مورد توسعه‌ی ایمن هوش مصنوعی معرفی کرده است.

قرار است هریس روز پنجشنبه در این اجلاس شرکت کند و به مقامات دولتی بیش از بیست کشور از جمله کانادا، فرانسه، آلمان، هند، ژاپن، عربستان سعودی و چین بپیوندد که به دلیل اعتراضات برخی از اعضای حزب محافظه‌کار حاکم به رهبری سوناک دعوت شده‌اند.

وادار کردن ملت‌ها به امضای این توافق‌نامه که «اعلامیه بلچلی» نامیده می‌شود، یک دستاورد بود، حتی اگر جزئیات کمی داشته باشد و راهی برای تنظیم توسعه هوش مصنوعی پیشنهاد نکند. کشورها متعهد شدند که برای «توافق و مسئولیت مشترک» در مورد خطرات هوش مصنوعی تلاش کنند و مجموعه‌ای از جلسات دیگر را برگزار کنند. کره جنوبی شش ماه دیگر یک اجلاس مجازی کوچک هوش مصنوعی برگزار خواهد کرد و پس از آن یک سال بعد، یک اجلاس حضوری در فرانسه برگزار خواهد شد.

وو ژائوهویی، معاون وزیر علوم و فناوری چین، گفت که فناوری هوش مصنوعی «نامشخص، غیرقابل توضیح و فاقد شفافیت» است.

او با اشاره به اینکه شی جین پینگ، رئیس جمهور چین، ماه گذشته طرح جهانی این کشور برای حاکمیت هوش مصنوعی را راه‌اندازی کرد، گفت: «این فناوری خطرات و چالش‌هایی را در اخلاق، ایمنی، حریم خصوصی و انصاف به همراه دارد. پیچیدگی آن در حال ظهور است.»

او گفت: «ما خواستار همکاری جهانی برای به اشتراک گذاشتن دانش و در دسترس قرار دادن فناوری‌های هوش مصنوعی برای عموم تحت شرایط متن‌باز هستیم.»

قرار است ایلان ماسک، مدیرعامل تسلا، نیز در گفتگویی که پنجشنبه شب پخش خواهد شد، درباره هوش مصنوعی با سوناک گفتگو کند. این میلیاردر حوزه فناوری از جمله کسانی بود که اوایل امسال بیانیه‌ای را امضا کرد و در آن نسبت به خطراتی که هوش مصنوعی برای بشریت ایجاد می‌کند، هشدار داد.

اورسولا فون در لاین، رئیس کمیسیون اروپا، آنتونیو گوترش، دبیرکل سازمان ملل متحد و مدیران شرکت‌های هوش مصنوعی آمریکایی مانند آنتروپیک، دیپ‌مایند گوگل و اوپن‌ای‌آی و دانشمندان کامپیوتر بانفوذی مانند یوشع بنگیو، یکی از «پدرخوانده‌های» هوش مصنوعی، نیز در این نشست در بلچلی پارک، یک پایگاه فوق سری سابق برای رمزگشایان جنگ جهانی دوم که به عنوان زادگاه محاسبات مدرن شناخته می‌شود، شرکت خواهند کرد.

شرکت‌کنندگان گفتند که قالب جلسه پشت درهای بسته، بحث‌های سالمی را تقویت کرده است. مصطفی سلیمان، مدیرعامل Inflection AI، گفت که جلسات غیررسمی شبکه‌سازی به ایجاد اعتماد کمک می‌کند.

سلیمان به خبرنگاران گفت، در همین حال، در بحث‌های رسمی «مردم توانسته‌اند اظهارات بسیار روشنی بیان کنند و اینجاست که شما شاهد اختلاف نظرهای قابل توجهی هستید، چه بین کشورهای شمال و جنوب (و) کشورهایی که بیشتر طرفدار متن‌باز هستند و چه کمتر.»

سیستم‌های هوش مصنوعی متن‌باز به محققان و متخصصان این امکان را می‌دهند که به سرعت مشکلات را کشف و به آنها رسیدگی کنند. اما نکته منفی این است که به محض انتشار یک سیستم متن‌باز، «هر کسی می‌تواند از آن استفاده کند و آن را برای اهداف مخرب تنظیم کند.» این گفته‌ی بنجیو در حاشیه‌ی این نشست است.

«این ناسازگاری بین متن‌باز بودن و امنیت وجود دارد. پس چگونه با آن کنار بیاییم؟»

سوناک هفته گذشته گفت فقط دولت‌ها، نه شرکت‌ها، می‌توانند مردم را از خطرات هوش مصنوعی در امان نگه دارند. با این حال، او همچنین خواستار عجله برای تنظیم مقررات فناوری هوش مصنوعی شد و گفت که ابتدا باید آن را به طور کامل درک کرد.

در مقابل، هریس بر لزوم رسیدگی به شرایط فعلی، از جمله «آسیب‌های اجتماعی که در حال حاضر در حال وقوع هستند مانند تعصب، تبعیض و گسترش اطلاعات نادرست» تأکید کرد.

او به فرمان اجرایی رئیس جمهور جو بایدن در این هفته که تدابیر حفاظتی هوش مصنوعی را تعیین می‌کند، به عنوان مدرکی دال بر پیشرو بودن ایالات متحده در تدوین قوانینی برای هوش مصنوعی که در جهت منافع عمومی عمل می‌کنند، اشاره کرد.

هریس همچنین سایر کشورها را تشویق کرد تا به تعهد مورد حمایت ایالات متحده مبنی بر پایبندی به استفاده «مسئولانه و اخلاقی» از هوش مصنوعی برای اهداف نظامی بپیوندند.

او گفت: «من و رئیس جمهور بایدن معتقدیم که همه رهبران... وظیفه اخلاقی، وجدانی و اجتماعی داریم که اطمینان حاصل کنیم هوش مصنوعی به گونه‌ای پذیرفته و توسعه می‌یابد که از مردم در برابر آسیب‌های احتمالی محافظت کند و تضمین کند که همه می‌توانند از مزایای آن بهره‌مند شوند.»


زمان ارسال: ۲۱ نوامبر ۲۰۲۳