OpenAI برای مبارزه با آسیبپذیریهای سیستم، برنامه باگ بونتی راهاندازی میکند

OpenAI یک برنامه پاداش باگ را برای رسیدگی به مسائل مربوط به حریم خصوصی و امنیت سایبری راه اندازی کرده است و به محققان امنیتی برای شناسایی و رسیدگی به آسیب پذیری های سیستم پاداش می دهد.
در میان مسائل مربوط به حریم خصوصی و امنیت سایبری و ممنوعیت های اخیر در کشورهای مختلف، شرکت هوش مصنوعی (AI) OpenAI برنامه ای را برای مبارزه با نگرانی های آسیب پذیری منتشر کرده است.
در 11 آوریل، OpenAI، شرکت سازنده ChatGPT، راهاندازی برنامه OpenAI “Bug Bounty” را برای کمک به شناسایی و رفع آسیبپذیریها در سیستمهای خود اعلام کرد . بر اساس این اعلامیه، این برنامه به محققان امنیتی برای مشارکت آنها در حفظ امنیت فناوری و شرکت OpenAI پاداش میدهد.
OpenAI از جامعه جهانی محققان امنیتی، هکرهای اخلاقی و علاقه مندان به فناوری دعوت کرد و انگیزه هایی برای واجد شرایط بودن اطلاعات آسیب پذیری ارائه کرد. این شرکت هوش مصنوعی معتقد است که تخصص و هوشیاری مستقیماً بر ایمن نگه داشتن سیستم های آن و تضمین امنیت کاربران تأثیر می گذارد.
راه اندازی این برنامه به دنبال بیانیه هیروکازو ماتسونو، دبیر ارشد کابینه دولت ژاپن در روز دوشنبه صورت می گیرد که ژاپن در نظر دارد فناوری هوش مصنوعی را در سیستم های دولتی بگنجاند، مشروط بر اینکه مسائل مربوط به حریم خصوصی و امنیت سایبری مورد توجه قرار گیرد.
OpenAI در 20 مارس دچار نقض داده شد، جایی که داده های کاربر به دلیل وجود اشکال در یک کتابخانه منبع باز در معرض کاربر دیگری قرار گرفت.
در این اطلاعیه، OpenAI گفت که با Bugcrowd – یک پلتفرم پاداش باگ – برای مدیریت فرآیند ارسال و پاداش، که برای اطمینان از تجربه ساده برای همه شرکتکنندگان طراحی شده است، شریک شده است. بر اساس شدت و تأثیر مسائل گزارش شده، جوایز نقدی اعطا خواهد شد. جوایز از 200 دلار برای یافته های کم شدت تا 20000 دلار برای اکتشافات استثنایی متغیر است.
مرتبط: برنامههای GPT-4 BabyAGI و AutoGPT میتوانند پیامدهای مخربی برای رمزارز داشته باشند
حفاظت از بندر امن برای تحقیقات آسیبپذیری انجام شده بر اساس دستورالعملهای خاص فهرستشده توسط OpenAI ارائه میشود. از محققان انتظار می رود که تمام قوانین قابل اجرا را رعایت کنند.
اگر شخص ثالثی علیه محقق امنیتی که در برنامه پاداش باگ OpenAI شرکت کرده و محقق از قوانین برنامه پیروی کرده است، اقدام قانونی کند، OpenAI به دیگران اطلاع می دهد که محقق طبق دستورالعمل های برنامه عمل کرده است. این به این دلیل است که سیستمهای OpenAI با سایر سیستمها و سرویسهای شخص ثالث مرتبط هستند.