OpenAI دو مدل جدید برای ایمنی آنلاین معرفی کرد
به گزارش خبرمحور به نقل CNBC، شرکت OpenAI امروز از دو مدل استدلالگر جدید با نامهای gpt-oss-safeguard-120b و gpt-oss-safeguard-20b رونمایی کرد. این مدلها نسخههای بهینهشدهای از خانواده gpt-oss هستند که پیشتر در ماه آگوست معرفی شده بود.
هدف اصلی از توسعه این مدلها، افزایش شفافیت، امنیت و قابلیت نظارت هوشمند بر محتوای آنلاین است — اقدامی که میتواند مسیر تازهای برای هوش مصنوعی اخلاقمدار و مسئولانه ایجاد کند.
مدلهای وزن-باز؛ گامی به سوی شفافیت کامل
OpenAI اعلام کرده است که مدلهای جدید Safeguard بهصورت وزن-باز (open-weight) منتشر شدهاند.
این اصطلاح بدین معناست که پارامترهای داخلی مدلها — که کیفیت و دقت پاسخها را تعیین میکنند — بهصورت عمومی در دسترس قرار دارند.
با این کار، شرکتها و پژوهشگران میتوانند مدلها را بر اساس نیاز، خطمشی یا حساسیتهای محتوایی خاص خود تنظیم کنند.
این اقدام تفاوتی مهم با مدلهای متنباز (open-source) دارد. در مدل متنباز، کد منبع کاملاً قابل ویرایش است؛ اما در مدل وزن-باز، کاربران به ساختار آموزش و پارامترها دسترسی دارند، نه الزاماً به کد کامل.
این سطح از شفافیت به توسعهدهندگان اجازه میدهد تا بفهمند مدل چگونه تصمیمگیری میکند و چرا یک نتیجه خاص را ارائه داده است — ویژگیای که در حوزه ایمنی دیجیتال اهمیت بالایی دارد.

مدلهایی برای شناسایی و طبقهبندی آسیبهای آنلاین
مدلهای Safeguard بهطور ویژه برای تحلیل محتوای آنلاین، شناسایی تهدیدها و آسیبهای دیجیتال طراحی شدهاند.
به گفته OpenAI، سازمانها و پلتفرمها میتوانند این مدلها را برای شناسایی رفتارهای خطرناک، گفتار نفرتانگیز، تقلب، محتوای جعلی یا سوءاستفادههای دیجیتال مورد استفاده قرار دهند.
به عنوان مثال:
-
یک سایت نقد و بررسی محصولات میتواند از Safeguard برای تشخیص نظرات جعلی یا تبلیغاتی استفاده کند.
-
انجمنهای بازیهای ویدیویی میتوانند با این مدل، پستهایی را که شامل تقلب، نفرتپراکنی یا محتوای نامناسب هستند، طبقهبندی و فیلتر کنند.
-
حتی شرکتهای رسانهای یا آموزشی نیز قادرند از آن برای تحلیل امنیت گفتوگوهای کاربران بهره ببرند.
این مدلها علاوه بر توانایی در تحلیل داده، قابلیت توضیح استدلال خود را نیز دارند؛ یعنی میتوانند شرح دهند که چرا و چگونه به نتیجهای خاص رسیدهاند. چنین قابلیتی گامی بزرگ به سمت شفافیت و اعتماد در تصمیمگیریهای هوش مصنوعی محسوب میشود.
همکاری OpenAI با Discord، SafetyKit و ROOST
توسعه مدلهای Safeguard حاصل همکاری چندین نهاد فعال در حوزه ایمنی دیجیتال است.
بر اساس گزارش OpenAI، این مدلها با مشارکت دیسکورد (Discord)، SafetyKit و سازمان ROOST توسعه یافتهاند.
سازمان ROOST یکی از مؤسسات پیشرو در زمینه طراحی زیرساختهای ایمنی برای هوش مصنوعی است و نقش کلیدی در بهینهسازی بخش نظارتی این مدلها داشته است.
«کامیل فرانسوا»، رئیس ROOST، در بیانیهای رسمی اعلام کرد:
- «با پیشرفت سریع هوش مصنوعی، ابزارهای ایمنی و تحقیقات بنیادی نیز باید همزمان رشد کنند و در دسترس همه قرار گیرند.»
این همکاری چندجانبه میتواند الگویی جدید برای تعامل میان بخش خصوصی، جامعه تحقیقاتی و نهادهای مدنی در جهت توسعه مسئولانه هوش مصنوعی باشد.
بازخورد پژوهشگران و مسیر آینده Safeguard
OpenAI فعلاً این مدلها را در حالت پیشنمایش تحقیقاتی (Research Preview) منتشر کرده است. هدف از این مرحله، جمعآوری بازخورد از پژوهشگران، کارشناسان امنیت سایبری و توسعهدهندگان در سراسر جهان است.
بر اساس اعلام رسمی شرکت، وزن مدلها از طریق پلتفرم Hugging Face در دسترس قرار گرفته و کاربران میتوانند آنها را برای آزمایش و بهبود عملکرد دانلود کنند.
این اقدام نشان میدهد OpenAI قصد دارد روند توسعه Safeguard را بهصورت شفاف و مشارکتی پیش ببرد. با وجود انتقاداتی که در ماههای اخیر نسبت به تجاریسازی سریع محصولات OpenAI مطرح شده، معرفی این مدلها میتواند پاسخی به منتقدان باشد — مدلی باز، قابل تنظیم و متمرکز بر امنیت کاربران.
پاسخ به انتقادات درباره اخلاق هوش مصنوعی
در سال گذشته، برخی منتقدان و کارشناسان نسبت به سرعت رشد OpenAI و کمتوجهی به ابعاد اخلاقی و امنیتی هشدار داده بودند.
اکنون معرفی Safeguard میتواند نشانهای از تغییر رویکرد شرکت باشد؛ حرکتی در جهت تعادل میان نوآوری و مسئولیتپذیری.
OpenAI تأکید کرده است که این مدلها صرفاً ابزار فنی نیستند، بلکه بستری برای تحقیقات آزاد در زمینه رفتار هوش مصنوعی و ایمنی محتوا خواهند بود.
به گفته مقامات شرکت، اگر پژوهشگران بتوانند از طریق Safeguard به درک بهتری از نحوه تصمیمگیری مدلها برسند، مسیر آینده هوش مصنوعی شفافتر و قابل اعتمادتر خواهد شد.
ارزش OpenAI و تحولات سازمانی
ارزش شرکت OpenAI اکنون حدود ۵۰۰ میلیارد دلار برآورد شده است؛ عددی که نشان میدهد بازار جهانی هوش مصنوعی همچنان در حال رشد سریع است.
به گزارش CNBC، این شرکت همچنین اعلام کرده که ساختار سازمانی خود را بازسازی کرده است تا توسعه مدلهای ایمن و مسئولانه در اولویت فعالیتهای آتی قرار گیرد.
چتبات ChatGPT نیز با بیش از ۸۰۰ میلیون کاربر فعال هفتگی، یکی از پرمخاطبترین محصولات در حوزه هوش مصنوعی مولد محسوب میشود.
به همین دلیل، گسترش ابزارهای ایمنی مانند Safeguard نه تنها برای کاربران، بلکه برای اعتبار OpenAI در بازار جهانی نیز اهمیت حیاتی دارد.
جمعبندی
مدلهای جدید gpt-oss-safeguard را میتوان نقطه عطفی در مسیر توسعه هوش مصنوعی ایمن دانست.
این فناوری با تمرکز بر شفافیت، قابلیت توضیح و تنظیمپذیری، به سازمانها و توسعهدهندگان کمک میکند تا تهدیدهای دیجیتال را سریعتر شناسایی و مدیریت کنند.
OpenAI با انتشار عمومی وزنهای این مدلها، گامی مهم در جهت اعتمادسازی و توسعه اخلاقمدار برداشته است.
بهنظر میرسد آینده هوش مصنوعی نه در انحصار، بلکه در همکاری و شفافیت جهانی رقم خواهد خورد.
هیچ نظر! یکی از اولین.