هریس در سخنرانی خود در سفارت آمریکا گفت که جهان باید همین حالا برای مقابله با «طیف کامل» خطرات هوش مصنوعی، نه فقط تهدیدهای وجودی مانند حملات سایبری گسترده یا سلاحهای زیستی ساخته شده توسط هوش مصنوعی، اقدام کند.
او با اشاره به یک شهروند مسن که به دلیل یک الگوریتم هوش مصنوعی معیوب یا زنی که توسط شریک بدرفتارش با عکسهای جعلی تهدید شده بود، گفت: «تهدیدهای دیگری نیز وجود دارند که اقدام ما را میطلبند، تهدیدهایی که در حال حاضر باعث آسیب میشوند و برای بسیاری از مردم نیز احساس وجودی دارند.»
اجلاس ایمنی هوش مصنوعی، حاصل عشق و علاقهی سوناک است، یک بانکدار سابقِ عاشق فناوری که میخواهد بریتانیا به مرکزی برای نوآوریهای محاسباتی تبدیل شود و این اجلاس را به عنوان آغاز گفتگوی جهانی در مورد توسعهی ایمن هوش مصنوعی معرفی کرده است.
قرار است هریس روز پنجشنبه در این اجلاس شرکت کند و به مقامات دولتی بیش از بیست کشور از جمله کانادا، فرانسه، آلمان، هند، ژاپن، عربستان سعودی و چین بپیوندد که به دلیل اعتراضات برخی از اعضای حزب محافظهکار حاکم به رهبری سوناک دعوت شدهاند.
وادار کردن ملتها به امضای این توافقنامه که «اعلامیه بلچلی» نامیده میشود، یک دستاورد بود، حتی اگر جزئیات کمی داشته باشد و راهی برای تنظیم توسعه هوش مصنوعی پیشنهاد نکند. کشورها متعهد شدند که برای «توافق و مسئولیت مشترک» در مورد خطرات هوش مصنوعی تلاش کنند و مجموعهای از جلسات دیگر را برگزار کنند. کره جنوبی شش ماه دیگر یک اجلاس مجازی کوچک هوش مصنوعی برگزار خواهد کرد و پس از آن یک سال بعد، یک اجلاس حضوری در فرانسه برگزار خواهد شد.
وو ژائوهویی، معاون وزیر علوم و فناوری چین، گفت که فناوری هوش مصنوعی «نامشخص، غیرقابل توضیح و فاقد شفافیت» است.
او با اشاره به اینکه شی جین پینگ، رئیس جمهور چین، ماه گذشته طرح جهانی این کشور برای حاکمیت هوش مصنوعی را راهاندازی کرد، گفت: «این فناوری خطرات و چالشهایی را در اخلاق، ایمنی، حریم خصوصی و انصاف به همراه دارد. پیچیدگی آن در حال ظهور است.»
او گفت: «ما خواستار همکاری جهانی برای به اشتراک گذاشتن دانش و در دسترس قرار دادن فناوریهای هوش مصنوعی برای عموم تحت شرایط متنباز هستیم.»
قرار است ایلان ماسک، مدیرعامل تسلا، نیز در گفتگویی که پنجشنبه شب پخش خواهد شد، درباره هوش مصنوعی با سوناک گفتگو کند. این میلیاردر حوزه فناوری از جمله کسانی بود که اوایل امسال بیانیهای را امضا کرد و در آن نسبت به خطراتی که هوش مصنوعی برای بشریت ایجاد میکند، هشدار داد.
اورسولا فون در لاین، رئیس کمیسیون اروپا، آنتونیو گوترش، دبیرکل سازمان ملل متحد و مدیران شرکتهای هوش مصنوعی آمریکایی مانند آنتروپیک، دیپمایند گوگل و اوپنایآی و دانشمندان کامپیوتر بانفوذی مانند یوشع بنگیو، یکی از «پدرخواندههای» هوش مصنوعی، نیز در این نشست در بلچلی پارک، یک پایگاه فوق سری سابق برای رمزگشایان جنگ جهانی دوم که به عنوان زادگاه محاسبات مدرن شناخته میشود، شرکت خواهند کرد.
شرکتکنندگان گفتند که قالب جلسه پشت درهای بسته، بحثهای سالمی را تقویت کرده است. مصطفی سلیمان، مدیرعامل Inflection AI، گفت که جلسات غیررسمی شبکهسازی به ایجاد اعتماد کمک میکند.
سلیمان به خبرنگاران گفت، در همین حال، در بحثهای رسمی «مردم توانستهاند اظهارات بسیار روشنی بیان کنند و اینجاست که شما شاهد اختلاف نظرهای قابل توجهی هستید، چه بین کشورهای شمال و جنوب (و) کشورهایی که بیشتر طرفدار متنباز هستند و چه کمتر.»
سیستمهای هوش مصنوعی متنباز به محققان و متخصصان این امکان را میدهند که به سرعت مشکلات را کشف و به آنها رسیدگی کنند. اما نکته منفی این است که به محض انتشار یک سیستم متنباز، «هر کسی میتواند از آن استفاده کند و آن را برای اهداف مخرب تنظیم کند.» این گفتهی بنجیو در حاشیهی این نشست است.
«این ناسازگاری بین متنباز بودن و امنیت وجود دارد. پس چگونه با آن کنار بیاییم؟»
سوناک هفته گذشته گفت فقط دولتها، نه شرکتها، میتوانند مردم را از خطرات هوش مصنوعی در امان نگه دارند. با این حال، او همچنین خواستار عجله برای تنظیم مقررات فناوری هوش مصنوعی شد و گفت که ابتدا باید آن را به طور کامل درک کرد.
در مقابل، هریس بر لزوم رسیدگی به شرایط فعلی، از جمله «آسیبهای اجتماعی که در حال حاضر در حال وقوع هستند مانند تعصب، تبعیض و گسترش اطلاعات نادرست» تأکید کرد.
او به فرمان اجرایی رئیس جمهور جو بایدن در این هفته که تدابیر حفاظتی هوش مصنوعی را تعیین میکند، به عنوان مدرکی دال بر پیشرو بودن ایالات متحده در تدوین قوانینی برای هوش مصنوعی که در جهت منافع عمومی عمل میکنند، اشاره کرد.
هریس همچنین سایر کشورها را تشویق کرد تا به تعهد مورد حمایت ایالات متحده مبنی بر پایبندی به استفاده «مسئولانه و اخلاقی» از هوش مصنوعی برای اهداف نظامی بپیوندند.
او گفت: «من و رئیس جمهور بایدن معتقدیم که همه رهبران... وظیفه اخلاقی، وجدانی و اجتماعی داریم که اطمینان حاصل کنیم هوش مصنوعی به گونهای پذیرفته و توسعه مییابد که از مردم در برابر آسیبهای احتمالی محافظت کند و تضمین کند که همه میتوانند از مزایای آن بهرهمند شوند.»
زمان ارسال: ۲۱ نوامبر ۲۰۲۳