• صفحه نخست
  • اقتصادی
    • طلا و ارز
    • بانک
    • بورس
    • بیمه
    • صنعت و معدن
    • انرژی
    • راه و مسکن
    • اصناف
  • خودرو
  • سیاسی
  • بین الملل
  • فرهنگی
  • ورزشی
  • اجتماعی
    • حوادث
    • سلامت
    • سبک زندگی
  • علم و دانش
    • آموزش
    • فناوری
    • ارز دیجیتال
    • گوشی و تبلت
  • تماس با ما
آبان ۱۷, ۱۴۰۴
  • صفحه نخست
  • اقتصادی
    • طلا و ارز
    • بانک
    • بورس
    • بیمه
    • صنعت و معدن
    • انرژی
    • راه و مسکن
    • اصناف
  • خودرو
  • سیاسی
  • بین الملل
  • فرهنگی
  • ورزشی
  • اجتماعی
    • حوادث
    • سلامت
    • سبک زندگی
  • علم و دانش
    • آموزش
    • فناوری
    • ارز دیجیتال
    • گوشی و تبلت
  • تماس با ما
openai-launches-online-safety-reasoning-models-910x600.jpg

OpenAI دو مدل جدید برای ایمنی آنلاین معرفی کرد

OpenAI از دو مدل هوش مصنوعی جدید با هدف ارتقای ایمنی آنلاین رونمایی کرده است. این مدل‌ها با نام‌های gpt-oss-safeguard-120b و gpt-oss-safeguard-20b معرفی شده‌اند و به گفته این شرکت، قرار است به توسعه‌دهندگان کمک کنند تا انواع آسیب‌های آنلاین را در پلتفرم‌های خود شناسایی و مدیریت کنند.
کد خبر :14949 آبان 8, 1404

فهرست مطالب

Toggle
  • مدل‌های وزن-باز؛ گامی به سوی شفافیت کامل
  • مدل‌هایی برای شناسایی و طبقه‌بندی آسیب‌های آنلاین
  • همکاری OpenAI با Discord، SafetyKit و ROOST
  • بازخورد پژوهشگران و مسیر آینده Safeguard
  • پاسخ به انتقادات درباره اخلاق هوش مصنوعی
  •  ارزش OpenAI و تحولات سازمانی
  • جمع‌بندی

به گزارش خبرمحور به نقل CNBC، شرکت OpenAI امروز از دو مدل استدلالگر جدید با نام‌های gpt-oss-safeguard-120b و gpt-oss-safeguard-20b رونمایی کرد. این مدل‌ها نسخه‌های بهینه‌شده‌ای از خانواده gpt-oss هستند که پیش‌تر در ماه آگوست معرفی شده بود.

هدف اصلی از توسعه این مدل‌ها، افزایش شفافیت، امنیت و قابلیت نظارت هوشمند بر محتوای آنلاین است — اقدامی که می‌تواند مسیر تازه‌ای برای هوش مصنوعی اخلاق‌مدار و مسئولانه ایجاد کند.

مدل‌های وزن-باز؛ گامی به سوی شفافیت کامل

OpenAI اعلام کرده است که مدل‌های جدید Safeguard به‌صورت وزن-باز (open-weight) منتشر شده‌اند.
این اصطلاح بدین معناست که پارامترهای داخلی مدل‌ها — که کیفیت و دقت پاسخ‌ها را تعیین می‌کنند — به‌صورت عمومی در دسترس قرار دارند.

با این کار، شرکت‌ها و پژوهشگران می‌توانند مدل‌ها را بر اساس نیاز، خط‌مشی یا حساسیت‌های محتوایی خاص خود تنظیم کنند.

این اقدام تفاوتی مهم با مدل‌های متن‌باز (open-source) دارد. در مدل متن‌باز، کد منبع کاملاً قابل ویرایش است؛ اما در مدل وزن-باز، کاربران به ساختار آموزش و پارامترها دسترسی دارند، نه الزاماً به کد کامل.
این سطح از شفافیت به توسعه‌دهندگان اجازه می‌دهد تا بفهمند مدل چگونه تصمیم‌گیری می‌کند و چرا یک نتیجه خاص را ارائه داده است — ویژگی‌ای که در حوزه ایمنی دیجیتال اهمیت بالایی دارد.

openai-launches-online-safety-reasoning-models

مدل‌هایی برای شناسایی و طبقه‌بندی آسیب‌های آنلاین

مدل‌های Safeguard به‌طور ویژه برای تحلیل محتوای آنلاین، شناسایی تهدیدها و آسیب‌های دیجیتال طراحی شده‌اند.
به گفته OpenAI، سازمان‌ها و پلتفرم‌ها می‌توانند این مدل‌ها را برای شناسایی رفتارهای خطرناک، گفتار نفرت‌انگیز، تقلب، محتوای جعلی یا سوءاستفاده‌های دیجیتال مورد استفاده قرار دهند.

به عنوان مثال:

  • یک سایت نقد و بررسی محصولات می‌تواند از Safeguard برای تشخیص نظرات جعلی یا تبلیغاتی استفاده کند.

  • انجمن‌های بازی‌های ویدیویی می‌توانند با این مدل، پست‌هایی را که شامل تقلب، نفرت‌پراکنی یا محتوای نامناسب هستند، طبقه‌بندی و فیلتر کنند.

  • حتی شرکت‌های رسانه‌ای یا آموزشی نیز قادرند از آن برای تحلیل امنیت گفت‌وگوهای کاربران بهره ببرند.

این مدل‌ها علاوه بر توانایی در تحلیل داده، قابلیت توضیح استدلال خود را نیز دارند؛ یعنی می‌توانند شرح دهند که چرا و چگونه به نتیجه‌ای خاص رسیده‌اند. چنین قابلیتی گامی بزرگ به سمت شفافیت و اعتماد در تصمیم‌گیری‌های هوش مصنوعی محسوب می‌شود.

همکاری OpenAI با Discord، SafetyKit و ROOST

توسعه مدل‌های Safeguard حاصل همکاری چندین نهاد فعال در حوزه ایمنی دیجیتال است.
بر اساس گزارش OpenAI، این مدل‌ها با مشارکت دیسکورد (Discord)، SafetyKit و سازمان ROOST توسعه یافته‌اند.
سازمان ROOST یکی از مؤسسات پیشرو در زمینه طراحی زیرساخت‌های ایمنی برای هوش مصنوعی است و نقش کلیدی در بهینه‌سازی بخش نظارتی این مدل‌ها داشته است.

«کامیل فرانسوا»، رئیس ROOST، در بیانیه‌ای رسمی اعلام کرد:

  • «با پیشرفت سریع هوش مصنوعی، ابزارهای ایمنی و تحقیقات بنیادی نیز باید همزمان رشد کنند و در دسترس همه قرار گیرند.»

این همکاری چندجانبه می‌تواند الگویی جدید برای تعامل میان بخش خصوصی، جامعه تحقیقاتی و نهادهای مدنی در جهت توسعه مسئولانه هوش مصنوعی باشد.

بازخورد پژوهشگران و مسیر آینده Safeguard

OpenAI فعلاً این مدل‌ها را در حالت پیش‌نمایش تحقیقاتی (Research Preview) منتشر کرده است. هدف از این مرحله، جمع‌آوری بازخورد از پژوهشگران، کارشناسان امنیت سایبری و توسعه‌دهندگان در سراسر جهان است.

بر اساس اعلام رسمی شرکت، وزن مدل‌ها از طریق پلتفرم Hugging Face در دسترس قرار گرفته و کاربران می‌توانند آنها را برای آزمایش و بهبود عملکرد دانلود کنند.

این اقدام نشان می‌دهد OpenAI قصد دارد روند توسعه Safeguard را به‌صورت شفاف و مشارکتی پیش ببرد. با وجود انتقاداتی که در ماه‌های اخیر نسبت به تجاری‌سازی سریع محصولات OpenAI مطرح شده، معرفی این مدل‌ها می‌تواند پاسخی به منتقدان باشد — مدلی باز، قابل تنظیم و متمرکز بر امنیت کاربران.

پاسخ به انتقادات درباره اخلاق هوش مصنوعی

در سال گذشته، برخی منتقدان و کارشناسان نسبت به سرعت رشد OpenAI و کم‌توجهی به ابعاد اخلاقی و امنیتی هشدار داده بودند.

اکنون معرفی Safeguard می‌تواند نشانه‌ای از تغییر رویکرد شرکت باشد؛ حرکتی در جهت تعادل میان نوآوری و مسئولیت‌پذیری.

OpenAI تأکید کرده است که این مدل‌ها صرفاً ابزار فنی نیستند، بلکه بستری برای تحقیقات آزاد در زمینه رفتار هوش مصنوعی و ایمنی محتوا خواهند بود.

به گفته مقامات شرکت، اگر پژوهشگران بتوانند از طریق Safeguard به درک بهتری از نحوه تصمیم‌گیری مدل‌ها برسند، مسیر آینده هوش مصنوعی شفاف‌تر و قابل اعتمادتر خواهد شد.

 ارزش OpenAI و تحولات سازمانی

ارزش شرکت OpenAI اکنون حدود ۵۰۰ میلیارد دلار برآورد شده است؛ عددی که نشان می‌دهد بازار جهانی هوش مصنوعی همچنان در حال رشد سریع است.

به گزارش CNBC، این شرکت همچنین اعلام کرده که ساختار سازمانی خود را بازسازی کرده است تا توسعه مدل‌های ایمن و مسئولانه در اولویت فعالیت‌های آتی قرار گیرد.

چت‌بات ChatGPT نیز با بیش از ۸۰۰ میلیون کاربر فعال هفتگی، یکی از پرمخاطب‌ترین محصولات در حوزه هوش مصنوعی مولد محسوب می‌شود.

به همین دلیل، گسترش ابزارهای ایمنی مانند Safeguard نه تنها برای کاربران، بلکه برای اعتبار OpenAI در بازار جهانی نیز اهمیت حیاتی دارد.

جمع‌بندی

مدل‌های جدید gpt-oss-safeguard را می‌توان نقطه عطفی در مسیر توسعه هوش مصنوعی ایمن دانست.
این فناوری با تمرکز بر شفافیت، قابلیت توضیح و تنظیم‌پذیری، به سازمان‌ها و توسعه‌دهندگان کمک می‌کند تا تهدیدهای دیجیتال را سریع‌تر شناسایی و مدیریت کنند.

OpenAI با انتشار عمومی وزن‌های این مدل‌ها، گامی مهم در جهت اعتمادسازی و توسعه اخلاق‌مدار برداشته است.
به‌نظر می‌رسد آینده هوش مصنوعی نه در انحصار، بلکه در همکاری و شفافیت جهانی رقم خواهد خورد.

برچسب ها:

هوش مصنوعی
من را دنبال کنید نوشته شده توسط

راحله رئیسی

هیچ نظر! یکی از اولین.

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

4 × پنج =

ترندهای روز

آزمون سراسری
ابران و روسیه
اتباع
ارتش جمهوری اسلامی ایران
ارز دیجیتال
اضطراب
اعمال شب اول ماه
افزایش حقوق

پیشنهاد سردبیر

  • تصمیم بزرگ سال ۱۴۰۵؛ حداقل حقوق کارگران چقدر است؟
  • ادعای تازه ترامپ: ایران خواستار لغو تحریم‌ها شده است
  • تعطیلات رسمی سال ۱۴۰۵ و مناسبت‌های مهم اعلام شد
  • یارانه نقدی تا این تاریخ پرداخت می‌شود
  • ابلاغیه فوری بانک مرکزی: شرایط جدید وام ۲۰۰ میلیونی اعلام شد
  • افزایش قیمت طلا و آرامش بازار سکه امروز
  • افزایش فشار بر بورس تهران | اخبار مهم بازار سرمایه در ۱۳ آبان
  • کاهش قیمت طلا امروز ۱۳ آبان ۱۴۰۴ + جدول نرخ‌ها

بازار ایران

بورس

پیش‌بینی بورس شنبه ۱۷ آبان | شاخص کل صعود می‌کند؟

کارگران

عیدی کارگران ۲۱ میلیون؛ سهم کارمندان فقط ۳ میلیون!

تتر

خطر جدید برای ایرانیان؛ تتر بلوکه شد، نوبت بیت کوین است؟

آنلاین

دستورالعمل جدید خرید و فروش آنلاین طلا تصویب شد

گوسفند

آخرین نرخ گوسفند و گوساله زنده در بازار امروز

اخبار سیاسی

  • تهران در حالت آماده‌باش؛ دستور پزشکیان برای تخلیه احتمالی تهران
  • واقعیت شرایط کشور: وضعیت جنگی یا عادی؟
  • ظریف به‌دنبال مذاکره با ترامپ پس از ترور سردار سلیمانی؟
  • محاکمه روحانی و ظریف دوباره داغ شد؛ برجام مقصر است؟
  • تحلیل تازه از تنش‌های منطقه؛ آیا خاورمیانه در آستانه بحران تمام‌عیار است؟
  • توافقی بی‌سابقه در راه است؟ ایران و آمریکا در آستانه صلح
  • آیا زلزله زواره اصفهان واقعا آزمایش بمب اتم بود؟
  • ۲۶ مهر روز سرنوشت تحریم‌های ایران باید براساس قطعنامه لغو شوند
ساعات کاری مدارس
زلزله
موشک
دکوراسیون
پلیس فتا
موتور سیکلت
کد پستی
نورم
گاز
منزلت
شهر ری
رنگ مو
مهریه
عیدی
تعدیل
آزمون سراسری
  • کلیه حقوق مادی و معنوی این سایت محفوظ و متعلق به پایگاه خبری خبر محور است و استفاده از آن با ذکر منبع بلامانع است.
  • صفحه نخست
  • اقتصادی
    • طلا و ارز
    • بانک
    • بورس
    • بیمه
    • صنعت و معدن
    • انرژی
    • راه و مسکن
    • اصناف
  • خودرو
  • سیاسی
  • بین الملل
  • فرهنگی
  • ورزشی
  • اجتماعی
    • حوادث
    • سلامت
    • سبک زندگی
  • علم و دانش
    • آموزش
    • فناوری
    • ارز دیجیتال
    • گوشی و تبلت
  • تماس با ما