اختراع 40000 سلاح شیمیایی فقط در 6 ساعت!

این آزمایش نشانه آشکاری از این است که چرا به نظارت دقیق‌تر بر مدل های هوش مصنوعی نیاز داریم و باید درباره عواقب کار خود به واقع فکر کنیم.

موبنا – در جامعه امروزی از هوش مصنوعی بیشتر برای موارد مثبت و سازنده استفاده می شود. اما اگر این گونه نبود، شرایط به چه شکلی می شد؟

این پرسشی است که پژوهشگران شرکت Collaborations Pharmaceuticals در زمان آزمایش هایی با استفاده از یک هوش مصنوعی که برای جستجوی داروهای مفید ساخته شده بود، با خود مطرح کردند. این شرکت در زمینه پژوهش و توسعه دارو برای بیماری های نادر و کمتر مورد توجه قرار گرفته فعالیت می کند.

بنابر مقاله ای که در Nature Machine Intelligence منتشر شد، پژوهشگران شرکت Collaborations Pharmaceuticals تغییراتی را در این هوش مصنوعی ایجاد کرده تا برای جستجو و اختراع سلاح های شیمیایی بکار گرفته شود. الگوریتم یادگیری ماشینی با کشف و ارائه 40 هزار ترکیب فقط در شش ساعت، آنها را تحت تاثیر قرار داد.

تفکر ساده لوحانه

پژوهشگران Collaborations Pharmaceuticals در مقاله خود اشاره داشتند که این ایده قبلا به ذهن‌شان خطور نکرده بود. آنها تا حدی از نگرانی های امنیتی در مورد کار با عوامل بیماری‌زا (پاتوژن ها) یا مواد شیمیایی سمی آگاه بودند، اما این ارتباطی به آنها نداشت. آنها عمدتا در محیطی مجازی کار می کنند. کار این پژوهشگران ریشه در ساخت مدل های یادگیری ماشینی برای اهداف درمانی و سمی دارد تا به طراحی مولکول های جدید برای کشف دارو کمک کند.

به گفته پژوهشگران Collaborations Pharmaceuticals، ما دهه ها را صرف استفاده از رایانه ها و هوش مصنوعی کرده ایم تا سلامت انسان را بهبود ببخشیم، نه این که آن را تضعیف و تخریب کنیم. اما در زمینه سوء استفاده بالقوه از فعالیت هایمان تفکری ساده لوحانه داشتیم زیرا هدف ما همواره اجتناب از ویژگی های مولکولی بوده که می توانند در بسیاری از کلاس های مختلف پروتئین های ضروری برای زندگی انسان تداخل ایجاد کنند.

حتی فعالیت این پژوهشگران روی ویروس ابولا و سموم عصبی، که می توانست نگرانی هایی را در مورد پیامدهای منفی بالقوه مدل های یادگیری ماشینی ایجاد کند، زنگ خطر را برای آنها به صدا درنیاورده بود.

آزمایش آنها چگونه کار می کند؟

شرکت Collaborations Pharmaceuticals مدل های یادگیری ماشینی محاسباتی را برای پیش بینی سمیت ارائه می کند. تمام کاری که پژوهشگران باید انجام می دادند تطبیق روش شناسی (متدولوژی) خود برای جستجو بود و چیزی که به دست آوردند به یک اثبات محاسباتی از مفهومی برای ساخت سلاح های بیوشیمیایی تکامل یافت.

تیم پژوهشی قصد داشتند ببیند که اگر الگوریتم هوش مصنوعی به جای وطیفه ای مثبت روی انجام وظیفه ای منفی تنظیم شود چقدر سریع و راحت می تواند مورد سوء استفاده قرار بگیرد. این آزمایش نشانه آشکاری از این است که چرا به نظارت دقیق‌تر بر مدل های هوش مصنوعی نیاز داریم و باید درباره عواقب کار خود به واقع فکر کنیم.

 منبع: عصرایران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

دنبال کنید @ اینستاگرام