هوش مصنوعی باید مانند دارو و انرژی هسته ای تنظیم شود: وزیر بریتانیا
وزیری از حزب اپوزیسیون بریتانیا میگوید که هوش مصنوعی باید به شیوهای مشابه صنایع داروسازی و هستهای مجوز و تنظیم شود.
به گفته یکی از نمایندگان حزب سیاسی مخالف بریتانیا، توسعه دهندگانی که روی هوش مصنوعی کار می کنند باید به طور مشابه در صنایع دارویی، پزشکی و هسته ای مجوز بگیرند.
لوسی پاول، سیاستمدار و سخنگوی دیجیتال حزب کارگر بریتانیا، در 5 ژوئن به گاردین گفت که شرکتهایی مانند OpenAI یا گوگل که مدلهای هوش مصنوعی ایجاد کردهاند باید «برای ساخت این مدلها مجوز داشته باشند» و افزود:
“نقطه نگرانی واقعی من فقدان مقرراتی در مورد مدل های زبان بزرگ است که می تواند در طیف وسیعی از ابزارهای هوش مصنوعی اعمال شود، خواه بر نحوه ساخت آنها، نحوه مدیریت آنها یا نحوه کنترل آنها نظارت کند.”
پاول استدلال میکند که تنظیم کردن توسعه برخی فناوریها گزینه بهتری نسبت به ممنوعیت آنها است، مشابه آنچه اتحادیه اروپا ابزارهای تشخیص چهره را ممنوع کرده است.
او افزود که هوش مصنوعی «میتواند عواقب ناخواسته زیادی داشته باشد» اما اگر توسعهدهندگان مجبور شوند در مورد مدلهای آموزشی هوش مصنوعی و مجموعه دادههای خود صحبت کنند، دولت میتواند برخی از خطرات را کاهش دهد.
او گفت: «این فناوری به قدری سریع در حال حرکت است که به یک رویکرد دولتی فعال و مداخله جویانه نیاز دارد.
پاول همچنین معتقد است که چنین فناوری پیشرفتهای میتواند تأثیر زیادی بر اقتصاد بریتانیا بگذارد و ظاهراً حزب کارگر در حال تکمیل سیاستهای خود در مورد هوش مصنوعی و فناوریهای مرتبط است.
هفته آینده، کیر استارمر، رهبر حزب کارگر، در حال برنامه ریزی برای برگزاری جلسه ای با کابینه سایه این حزب در دفاتر گوگل در بریتانیا است تا بتواند با مدیران متمرکز بر هوش مصنوعی صحبت کند.
در همین حال، مت کلیفورد، رئیس آژانس تحقیقات و اختراعات پیشرفته – آژانس تحقیقاتی دولتی که در فوریه گذشته تأسیس شد – در تاریخ 5 ژوئن در TalkTV ظاهر شد و هشدار داد که هوش مصنوعی میتواند انسان را در کمتر از دو سال آینده تهدید کند.
او گفت: “اگر ما اکنون به فکر نحوه تنظیم مقررات و ایمنی نباشیم، پس از دو سال متوجه خواهیم شد که سیستم هایی داریم که واقعاً بسیار قدرتمند هستند.” کلیفورد تصریح کرد، با این حال، یک جدول زمانی دو ساله “پایان صعودی طیف” است.
کلیفورد تاکید کرد که ابزارهای هوش مصنوعی امروزه می توانند برای کمک به “راه اندازی حملات سایبری در مقیاس بزرگ” استفاده شوند. OpenAI یک میلیون دلار برای حمایت از فناوری امنیت سایبری به کمک هوش مصنوعی برای خنثی کردن چنین استفاده هایی اختصاص داده است.
او گفت: «من فکر میکنم سناریوهای مختلفی وجود دارد که باید نگران آنها باشیم. مطمئناً فکر می کنم درست است که باید در دستور کار سیاست گذاران بسیار مهم باشد.»