آزمایشگاه اندور: شفافیت هوش مصنوعی در برابر “شستشوی باز”

پربازدیدترین این هفته:

هشدار مسئولیت سرمایه گذاری
دیگران در حال خواندن این صفحات هستند:

اشتراک گذاری این مطلب:

فهرست مطالب:

در حالی که صنعت هوش مصنوعی روی شفافیت و امنیت تمرکزی می‌کند، بحث‌های داغ درباره معنای واقعی “باز بودن” در حال تشدید است. کارشناسان شرکت امنیتی منبع باز اندور لبز درباره این مسائل مهم نظر دادند.

اندرو استایفل، مدیر ارشد بازاریابی محصولات در اندور لبز، بر اهمیت کاربرد درس هایی که از امنیت نرم‌افزار به دست آمده در سیستم‌های هوش مصنوعی تأکید کرد.

او گفت: “دستور اجرایی دولت آمریکا در سال 2021 درباره بهبود امنیت سایبری آمریکا، یک بخشی را شامل می‌شود که موسسات را ملزم می‌کند برای هر محصولی که به دستگاه‌های دولتی فروخته می‌شود، فاکتور نرم افزاری (SBOM) تولید کنند.”

یک SBOM در واقع یک فهرستی است که بخش‌های منبع باز درون یک محصول را جزئیاتی می‌کند تا آسیب‌پذیری‌ها را شناسایی کند. استایفل استدلال کرد که “اعمال این اصول مشابه برای سیستم‌های هوش مصنوعی مرحله بعدی منطقی است.”

او توضیح داد که “فراهم کردن شفافیت بهتر برای شهروندان و کارمندان دولتی نه تنها امنیت را افزایش می‌دهد، بلکه دیدگاهی را در مورد مجموعه داده‌های یک مدل، آموزش، وزن‌ها و سایر مؤلفه‌ها ارائه می‌دهد.”

ژولین سوبریه، مدیر ارشد محصول در اندور لبز، به بحث جاری درباره شفافیت هوش مصنوعی و “باز بودن” بعدی مهمی را اضافه کرد. سوبریه پیچیدگی زمینه را در طبقه بندی سیستم‌های هوش مصنوعی به عنوان واقعا باز، شکست.

او توجه کرد که عدم همگرایی بین بازیکنان اصلی باعث سردرگمی در مورد این اصطلاح شده است.

او اضافه کرد: “یکی از مشکلات ممکنی که سوبریه برجسته کرد، عملکرد رو به افزایش ‘شستشوی باز’ است، جایی که سازمان‌ها شفافیت را ادعا می‌کنند در حالی که محدودیت‌هایی را اعمال می‌کنند.”

همچنین او هشدار داد: “متا و سایر ارائه دهندگان ‘باز’ LLM ممکن است این مسیر را برای حفظ مزیت رقابتی خود دنبال کنند: شفافیت بیشتر در مورد مدل‌ها، اما جلوگیری از استفاده رقبا از آنها.”

دیپسیک، یکی از بازیگنان در حال ظهور – اگرچه مورد بحث – در صنعت هوش مصنوعی، اقداماتی را برای رفع برخی از این نگرانی‌ها انجام داده است با اینکه بخش‌هایی از مدل‌ها و کدهای خود را به صورت منبع باز ارائه می‌دهد. این حرکت برای پیشرفت شفافیت در حالی که ارائه نکات امنیتی تحسین شده است.

استایفل گفت: “دیپسیک قبلا مدل‌ها و وزن‌های آنها را به صورت منبع باز منتشر کرده است. این حرکت بعدی شفافیت بیشتری را در خدمات میزبانی شده آنها فراهم می‌کند و دیدگاهی را در مورد چگونگی تنظیم درست و اجرای این مدل‌ها در تولید عرضه می‌کند.”

او مشدداً تاکید کرد که “با فکر کردن درباره امنیت در چند بردار و اجرای کنترل‌های مناسب برای هر یک، باید در مقابل پیشرفت سریع هوش مصنوعی خودراضی نشویم.”

و در پایان او بیان کرد که: “از امنیت در چند بردار فکر کنید و کنترل‌های مناسب برای هر یک را پیاده کنید.”

اگر می‌خواهید بیشتر درباره هوش مصنوعی و داده‌های بزرگ از رهبران صنعت یاد بگیرید، نمایشگاه AI & Big Data Expo را که در آمستردام، کالیفرنیا، و لندن برگزار می‌شود، بررسی کنید. این رویداد جامع با دیگر رویدادهای پیشرو همچون کنفرانس اتوماسیون هوشمند، BlockX، هفته تبدیل دیجیتال، و نمایشگاه امنیت سایبری و ابر، هم‌زمان برگزار می‌شود.

نظرسنجی
نظر شما در مورد کیفیت این مقاله چیست؟
اینجا می تونی سوالاتت رو بپرسی یا نظرت رو با ما در میون بگذاری:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *