موسسه ایمنی هوش مصنوعی پلتفرم ابزاری را برای آزمایش ایمنی مدل‌های هوش مصنوعی راه‌اندازی می‌کند!

شرکت‌های توسعه‌دهنده تجاری می‌توانند از Inspect برای آزمایش مدل‌های هوش مصنوعی قبل از انتشار عمومی استفاده کنند. این مقاله در ابتدا در AI Business منتشر شد. موسسه ایمنی هوش مصنوعی بریتانیا پلتفرم جدیدی راه‌اندازی کرده است که به شرکت‌ها اجازه می‌دهد مدل‌های هوش مصنوعی خود را قبل از انتشار برای عموم آزمایش کنند.

این پلتفرم که Inspect نام دارد، یک کتابخانه نرم‌افزاری است که برای ارزیابی قابلیت‌های مدل‌های هوش مصنوعی و امتیازدهی به آن‌ها در زمینه‌هایی مانند استدلال و قابلیت‌های مستقل طراحی شده است. در حال حاضر ابزارهای تست امنیتی کافی برای توسعه‌دهندگان وجود ندارد. ماه گذشته، MLCommons  یک معیار عالی با تمرکز بر مدل زبان برای تست امنیتی معرفی کرد. مطالب مرتبط: Ampere پردازنده ۲۶۵ هسته‌ای را در مرکز داده پاورپلی معرفی می‌کند. Inspect برای پر کردن این شکاف ایجاد شده و منبع بازمنتشرشده است تا همه بتوانند از آن برای آزمایش مدل‌های هوش مصنوعی خود استفاده کنند.

شرکت‌ها می‌توانند از Inspect برای ارزیابی طراحی سریع مدل‌های هوش مصنوعی خود و استفاده از ابزارهای خارجی استفاده کنند. این ابزار همچنین شامل مجموعه داده‌های ارزیابی است که شامل نمونه‌های برچسب‌گذاری شده است تا توسعه‌دهندگان بتوانند داده‌های مورداستفاده برای آزمایش مدل را به دقت بررسی کنند.

این پلتفرم که Inspect نام دارد، یک کتابخانه نرم‌افزاری است که برای ارزیابی قابلیت‌های مدل‌های هوش مصنوعی و امتیازدهی به آن‌ها در زمینه‌هایی مانند استدلال و قابلیت‌های مستقل طراحی شده است. در حال حاضر ابزارهای تست امنیتی کافی برای توسعه‌دهندگان وجود ندارد. ماه گذشته، MLCommons  یک معیار عالی با تمرکز بر مدل زبان برای تست امنیتی معرفی کرد. مطالب مرتبط: Ampere پردازنده ۲۶۵ هسته‌ای را در مرکز داده پاورپلی معرفی می‌کند. Inspect برای پر کردن این شکاف ایجاد شده و منبع بازمنتشرشده است تا همه بتوانند از آن برای آزمایش مدل‌های هوش مصنوعی خود استفاده کنند.

شرکت‌ها می‌توانند از Inspect برای ارزیابی طراحی سریع مدل‌های هوش مصنوعی خود و استفاده از ابزارهای خارجی استفاده کنند. این ابزار همچنین شامل مجموعه داده‌های ارزیابی است که شامل نمونه‌های برچسب‌گذاری شده است تا توسعه‌دهندگان بتوانند داده‌های مورداستفاده برای آزمایش مدل را به دقت بررسی کنند.

این محصول به‌گونه‌ای طراحی شده است که استفاده از آن آسان باشد که همراه با توضیحاتی برای اجرای آزمایش‌های مختلف نیز در دسترس استفاده‌کننده قرار می‌گیرد، حتی اگر یک مدل در یک محیط ابری مانند AWS Bedrock میزبانی شود. به گفته موسسه امنیت، تصمیم  open sourceابزار تست به توسعه‌دهندگان در سراسر جهان اجازه می‌دهد تا ارزیابی‌های هوش مصنوعی موثرتری انجام دهند.

میشل دونلان، وزیر فناوری بریتانیا گفت: «به عنوان بخشی از فشار مداوم رهبران بریتانیا بر ایمنی هوش مصنوعی، من اجازه داده‌ام که پلتفرم تست مؤسسه ایمنی هوش مصنوعی  open sourceباشد». دلیل علاقه من به این موضوع و اینکه چرا Inspect متن باز را ساختم، به دلیل مزایای شگفت انگیزی است که در صورت کنترل خطرات هوش مصنوعی می‌توانیم به دست آوریم.

موسسه امنیت اعلام کرد که قصد دارد در آینده ابزارهای تست open source را فراتر از Inspect توسعه دهد. این آژانس پس از امضای توافقنامه کاری مشترک در ماه آوریل، روی پروژه‌های مرتبط با همتای آمریکایی خود کار خواهد کرد. ایان هوگارت، رئیس موسسه ایمنی هوش مصنوعی گفت: همکاری موفق در تست ایمنی هوش مصنوعی به معنای داشتن یک رویکرد مشترک و در دسترس برای ارزیابی است و ما امیدواریم که Inspect بتواند یک عامل کلیدی برای موسسات ایمنی هوش مصنوعی، سازمان‌های تحقیقاتی و دانشگاه باشد. ما مشتاقانه منتظریم تا جامعه جهانی هوش مصنوعی از Inspect استفاده کند تا نه تنها آزمایش ایمنی مدل خود را انجام دهد، بلکه برای کمک به انطباق و توسعه پلتفرم opensource تا بتوانیم ارزیابی‌هایی با کیفیت بالا در همه سطوح تولید کنیم.»

به گفته آماندا براک، مدیر اجرایی OpenUK، موفقیت پلتفرم جدید مؤسسه امنیتی را تنها می‌توان با تعداد شرکت‌هایی که قبلاً متعهد به استفاده از ابزار آزمایشی هستند اندازه‌گیری کرد. براک می‌گوید: «با توجه به کندی قانون‌گذاری بریتانیا، این پلتفرم به سادگی باید موفق شود تا بریتانیا جایگاهی در آینده هوش مصنوعی داشته باشد. اکنون همه نگاه‌ها به کره جنوبی و اجلاس امنیتی بعدی است تا ببینند جهان چگونه از آن استقبال خواهد کرد.»

ویرا سیوونن، مدیر بازرگانی AI گفت: «توانایی Inspect برای ارزیابی طیف وسیعی از قابلیت‌های هوش مصنوعی و ارائه امتیاز ایمنی، سازمان‌های بزرگ و کوچک را قادر می‌سازد تا نه تنها از پتانسیل هوش مصنوعی استفاده کنند، بلکه اطمینان حاصل کنند که از آن به طور مسئولانه و ایمن استفاده می‌شود. سعیدوت: «این گامی به سوی دموکراتیک کردن امنیت هوش مصنوعی است، حرکتی که بدون شک به نوآوری و در عین حال محافظت در برابر خطرات مرتبط با سیستم‌های هوش مصنوعی پیشرفته کمک می‌کند.»

این پلتفرم که Inspect نام دارد، یک کتابخانه نرم‌افزاری است که برای ارزیابی قابلیت‌های مدل‌های هوش مصنوعی و امتیازدهی به آن‌ها در زمینه‌هایی مانند استدلال و قابلیت‌های مستقل طراحی شده است. در حال حاضر ابزارهای تست امنیتی کافی برای توسعه‌دهندگان وجود ندارد. ماه گذشته، MLCommons  یک معیار عالی با تمرکز بر مدل زبان برای تست امنیتی معرفی کرد. مطالب مرتبط: Ampere پردازنده ۲۶۵ هسته‌ای را در مرکز داده پاورپلی معرفی می‌کند. Inspect برای پر کردن این شکاف ایجاد شده و منبع بازمنتشرشده است تا همه بتوانند از آن برای آزمایش مدل‌های هوش مصنوعی خود استفاده کنند.

شرکت‌ها می‌توانند از Inspect برای ارزیابی طراحی سریع مدل‌های هوش مصنوعی خود و استفاده از ابزارهای خارجی استفاده کنند. این ابزار همچنین شامل مجموعه داده‌های ارزیابی است که شامل نمونه‌های برچسب‌گذاری شده است تا توسعه‌دهندگان بتوانند داده‌های مورداستفاده برای آزمایش مدل را به دقت بررسی کنند.

شرکت‌ها می‌توانند از Inspect برای ارزیابی طراحی سریع مدل‌های هوش مصنوعی خود و استفاده از ابزارهای خارجی استفاده کنند. این ابزار همچنین شامل مجموعه داده‌های ارزیابی است که شامل نمونه‌های برچسب‌گذاری شده است تا توسعه‌دهندگان بتوانند داده‌های مورداستفاده برای آزمایش مدل را به دقت بررسی کنند.

منابع مطلب : www.datacenterknowledge.com

آیا این مطلب برای شما مفید بود؟


0 بازخورد

نظرات کاربران


آبگینه پرداز شرق