موسسه ایمنی هوش مصنوعی پلتفرم ابزاری را برای آزمایش ایمنی مدلهای هوش مصنوعی راهاندازی میکند!
شرکتهای توسعهدهنده تجاری میتوانند از Inspect برای آزمایش مدلهای هوش مصنوعی قبل از انتشار عمومی استفاده کنند. این مقاله در ابتدا در AI Business منتشر شد. موسسه ایمنی هوش مصنوعی بریتانیا پلتفرم جدیدی راهاندازی کرده است که به شرکتها اجازه میدهد مدلهای هوش مصنوعی خود را قبل از انتشار برای عموم آزمایش کنند.
این پلتفرم که Inspect نام دارد، یک کتابخانه نرمافزاری است که برای ارزیابی قابلیتهای مدلهای هوش مصنوعی و امتیازدهی به آنها در زمینههایی مانند استدلال و قابلیتهای مستقل طراحی شده است. در حال حاضر ابزارهای تست امنیتی کافی برای توسعهدهندگان وجود ندارد. ماه گذشته، MLCommons یک معیار عالی با تمرکز بر مدل زبان برای تست امنیتی معرفی کرد. مطالب مرتبط: Ampere پردازنده ۲۶۵ هستهای را در مرکز داده پاورپلی معرفی میکند. Inspect برای پر کردن این شکاف ایجاد شده و منبع بازمنتشرشده است تا همه بتوانند از آن برای آزمایش مدلهای هوش مصنوعی خود استفاده کنند.
شرکتها میتوانند از Inspect برای ارزیابی طراحی سریع مدلهای هوش مصنوعی خود و استفاده از ابزارهای خارجی استفاده کنند. این ابزار همچنین شامل مجموعه دادههای ارزیابی است که شامل نمونههای برچسبگذاری شده است تا توسعهدهندگان بتوانند دادههای مورداستفاده برای آزمایش مدل را به دقت بررسی کنند.
این پلتفرم که Inspect نام دارد، یک کتابخانه نرمافزاری است که برای ارزیابی قابلیتهای مدلهای هوش مصنوعی و امتیازدهی به آنها در زمینههایی مانند استدلال و قابلیتهای مستقل طراحی شده است. در حال حاضر ابزارهای تست امنیتی کافی برای توسعهدهندگان وجود ندارد. ماه گذشته، MLCommons یک معیار عالی با تمرکز بر مدل زبان برای تست امنیتی معرفی کرد. مطالب مرتبط: Ampere پردازنده ۲۶۵ هستهای را در مرکز داده پاورپلی معرفی میکند. Inspect برای پر کردن این شکاف ایجاد شده و منبع بازمنتشرشده است تا همه بتوانند از آن برای آزمایش مدلهای هوش مصنوعی خود استفاده کنند.
شرکتها میتوانند از Inspect برای ارزیابی طراحی سریع مدلهای هوش مصنوعی خود و استفاده از ابزارهای خارجی استفاده کنند. این ابزار همچنین شامل مجموعه دادههای ارزیابی است که شامل نمونههای برچسبگذاری شده است تا توسعهدهندگان بتوانند دادههای مورداستفاده برای آزمایش مدل را به دقت بررسی کنند.
این محصول بهگونهای طراحی شده است که استفاده از آن آسان باشد که همراه با توضیحاتی برای اجرای آزمایشهای مختلف نیز در دسترس استفادهکننده قرار میگیرد، حتی اگر یک مدل در یک محیط ابری مانند AWS Bedrock میزبانی شود. به گفته موسسه امنیت، تصمیم open sourceابزار تست به توسعهدهندگان در سراسر جهان اجازه میدهد تا ارزیابیهای هوش مصنوعی موثرتری انجام دهند.
میشل دونلان، وزیر فناوری بریتانیا گفت: «به عنوان بخشی از فشار مداوم رهبران بریتانیا بر ایمنی هوش مصنوعی، من اجازه دادهام که پلتفرم تست مؤسسه ایمنی هوش مصنوعی open sourceباشد». دلیل علاقه من به این موضوع و اینکه چرا Inspect متن باز را ساختم، به دلیل مزایای شگفت انگیزی است که در صورت کنترل خطرات هوش مصنوعی میتوانیم به دست آوریم.
موسسه امنیت اعلام کرد که قصد دارد در آینده ابزارهای تست open source را فراتر از Inspect توسعه دهد. این آژانس پس از امضای توافقنامه کاری مشترک در ماه آوریل، روی پروژههای مرتبط با همتای آمریکایی خود کار خواهد کرد. ایان هوگارت، رئیس موسسه ایمنی هوش مصنوعی گفت: همکاری موفق در تست ایمنی هوش مصنوعی به معنای داشتن یک رویکرد مشترک و در دسترس برای ارزیابی است و ما امیدواریم که Inspect بتواند یک عامل کلیدی برای موسسات ایمنی هوش مصنوعی، سازمانهای تحقیقاتی و دانشگاه باشد. ما مشتاقانه منتظریم تا جامعه جهانی هوش مصنوعی از Inspect استفاده کند تا نه تنها آزمایش ایمنی مدل خود را انجام دهد، بلکه برای کمک به انطباق و توسعه پلتفرم opensource تا بتوانیم ارزیابیهایی با کیفیت بالا در همه سطوح تولید کنیم.»
به گفته آماندا براک، مدیر اجرایی OpenUK، موفقیت پلتفرم جدید مؤسسه امنیتی را تنها میتوان با تعداد شرکتهایی که قبلاً متعهد به استفاده از ابزار آزمایشی هستند اندازهگیری کرد. براک میگوید: «با توجه به کندی قانونگذاری بریتانیا، این پلتفرم به سادگی باید موفق شود تا بریتانیا جایگاهی در آینده هوش مصنوعی داشته باشد. اکنون همه نگاهها به کره جنوبی و اجلاس امنیتی بعدی است تا ببینند جهان چگونه از آن استقبال خواهد کرد.»
ویرا سیوونن، مدیر بازرگانی AI گفت: «توانایی Inspect برای ارزیابی طیف وسیعی از قابلیتهای هوش مصنوعی و ارائه امتیاز ایمنی، سازمانهای بزرگ و کوچک را قادر میسازد تا نه تنها از پتانسیل هوش مصنوعی استفاده کنند، بلکه اطمینان حاصل کنند که از آن به طور مسئولانه و ایمن استفاده میشود. سعیدوت: «این گامی به سوی دموکراتیک کردن امنیت هوش مصنوعی است، حرکتی که بدون شک به نوآوری و در عین حال محافظت در برابر خطرات مرتبط با سیستمهای هوش مصنوعی پیشرفته کمک میکند.»
این پلتفرم که Inspect نام دارد، یک کتابخانه نرمافزاری است که برای ارزیابی قابلیتهای مدلهای هوش مصنوعی و امتیازدهی به آنها در زمینههایی مانند استدلال و قابلیتهای مستقل طراحی شده است. در حال حاضر ابزارهای تست امنیتی کافی برای توسعهدهندگان وجود ندارد. ماه گذشته، MLCommons یک معیار عالی با تمرکز بر مدل زبان برای تست امنیتی معرفی کرد. مطالب مرتبط: Ampere پردازنده ۲۶۵ هستهای را در مرکز داده پاورپلی معرفی میکند. Inspect برای پر کردن این شکاف ایجاد شده و منبع بازمنتشرشده است تا همه بتوانند از آن برای آزمایش مدلهای هوش مصنوعی خود استفاده کنند.
شرکتها میتوانند از Inspect برای ارزیابی طراحی سریع مدلهای هوش مصنوعی خود و استفاده از ابزارهای خارجی استفاده کنند. این ابزار همچنین شامل مجموعه دادههای ارزیابی است که شامل نمونههای برچسبگذاری شده است تا توسعهدهندگان بتوانند دادههای مورداستفاده برای آزمایش مدل را به دقت بررسی کنند.
شرکتها میتوانند از Inspect برای ارزیابی طراحی سریع مدلهای هوش مصنوعی خود و استفاده از ابزارهای خارجی استفاده کنند. این ابزار همچنین شامل مجموعه دادههای ارزیابی است که شامل نمونههای برچسبگذاری شده است تا توسعهدهندگان بتوانند دادههای مورداستفاده برای آزمایش مدل را به دقت بررسی کنند.
آیا این مطلب برای شما مفید بود؟
0 بازخورد