به گزارش نبض بورس، «مارک زاکربرگ»(Mark Zuckerberg)، مدیرعامل شرکت «متا»(Meta) متعهد شده است هوش مصنوعی جامع را که تقریبا به عنوان هوش مصنوعی با تواناییهای یک انسان در انجام دادن کارها تعریف میشود، یک روز به طور آشکار در دسترس قرار دهد، اما این شرکت در یک سند پیرامون سیاست جدید خود گفته شرایط خاصی وجود دارد که ممکن است باعث شوند متا سیستم هوش مصنوعی بسیار توانمند خود را منتشر نکند.
به نقل از تک کرانچ، این سند که متا آن را «Frontier AI Framework» نامیده است، دو نوع سیستم هوش مصنوعی را شناسایی میکند و گفته شده شرکت، انتشار آنها را بسیار خطرناک میداند. این دو سیستم، سیستمهای پرخطر و سیستمهای بحرانی نام دارند.
به گفته متا، سیستمهای پرخطر و بحرانی میتوانند به امنیت سایبری، حملات شیمیایی و بیولوژیکی کمک کنند. تفاوت آنها در این است که سیستمهای بحرانی میتوانند به یک نتیجه فاجعهآمیز منجر شوند که قابل کاهش نیست. در مقابل، سیستمهای پرخطر ممکن است انجام دادن یک حمله را آسانتر کنند، اما نه به اندازه یک سیستم بحرانی.
متا اذعان میکند که فهرست فاجعههای احتمالی در سند کامل نیست، اما مواردی را شامل میشود که متا معتقد است فوریترین و محتملترین آنها هستند و در نتیجه انتشار مستقیم یک سیستم هوش مصنوعی قوی به وجود میآیند.
موضوع تعجبآور این است که بر اساس این سند، متا خطر سیستم را بر اساس هیچ کدام از آزمایشهای تجربی طبقهبندی نمیکند، بلکه طبقهبندی را بر اساس دادههای ارائهشده توسط پژوهشگران داخلی و خارجی انجام میدهد که توسط تصمیمگیرندگان ارشد بررسی میشوند. متا میگوید که معتقد نیست علم ارزیابی به اندازه کافی قوی باشد تا معیارهای کمی قطعی را برای تصمیمگیری درباره خطرپذیری یک سیستم ارائه دهد.
متا میگوید اگر تشخیص دهد که یک سیستم پرخطر است، دسترسی به آن را به صورت داخلی محدود میکند و تا زمانی که اقدامات کاهشی را برای کاهش خطر به سطوح متوسط انجام ندهد، آن را منتشر نخواهد کرد. از سوی دیگر، متا میگوید اگر یک سیستم خطرناک تلقی شود، حفاظتهای امنیتی نامشخصی را برای جلوگیری از نفوذ به سیستم اجرا خواهد کرد و توسعه را متوقف خواهد ساخت تا زمانی که خطر آن کاهش یابد.
سند Frontier AI Framework متا که به گفته شرکت، با تغییر چشمانداز هوش مصنوعی تکامل خواهد یافت و متا پیشتر به انتشار آن پیش از اجلاس «France AI Action Summit» در ماه جاری میلادی متعهد شده بود، به نظر میرسد پاسخی به انتقاد از رویکرد باز این شرکت برای توسعه سیستم باشد. متا بر خلاف شرکتهایی مانند «اوپنایآی»(OpenAI) که تصمیم میگیرند سیستمهای خود را پشت یک API قرار دهند، پذیرفته است که فناوری هوش مصنوعی خود را به صورت آزاد اما نه به صورت منبع باز طبق تعریف معمول در دسترس قرار دهد.
متا در انتشار Frontier AI Framework خود نیز ممکن است قصد داشته باشد راهبرد هوش مصنوعی باز خود را با راهبرد شرکت چینی هوش مصنوعی «دیپسیک»(DeepSeek) مقایسه کند. دیپسیک سیستمهای خود را به صورت آزاد در دسترس قرار میدهد، اما هوش مصنوعی این شرکت، محافظهای کمی دارد و به راحتی میتوان آن را برای تولید خروجیهای مضر هدایت کرد.
متا در این سند نوشته است: ما معتقدیم که با در نظر گرفتن مزایا و خطرات برای تصمیمگیری درباره چگونگی توسعه و استقرار هوش مصنوعی پیشرفته میتوان آن را به گونهای به جامعه تحویل داد که مزایای آن برای جامعه حفظ شود و در عین حال، سطح مناسبی از خطر را داشته باشد. | خبرگزاری ایسنا