• صفحه نخست
  • اقتصادی
    • طلا و ارز
    • بانک
    • بورس
    • بیمه
    • صنعت و معدن
    • انرژی
    • راه و مسکن
    • اصناف
  • خودرو
  • سیاسی
  • بین الملل
  • فرهنگی
  • ورزشی
  • اجتماعی
    • حوادث
    • سلامت
    • سبک زندگی
  • علم و دانش
    • آموزش
    • فناوری
    • ارز دیجیتال
    • گوشی و تبلت
  • تماس با ما
آذر ۱۶, ۱۴۰۴
  • صفحه نخست
  • اقتصادی
    • طلا و ارز
    • بانک
    • بورس
    • بیمه
    • صنعت و معدن
    • انرژی
    • راه و مسکن
    • اصناف
  • خودرو
  • سیاسی
  • بین الملل
  • فرهنگی
  • ورزشی
  • اجتماعی
    • حوادث
    • سلامت
    • سبک زندگی
  • علم و دانش
    • آموزش
    • فناوری
    • ارز دیجیتال
    • گوشی و تبلت
  • تماس با ما
openai-launches-online-safety-reasoning-models-910x600.jpg

OpenAI دو مدل جدید برای ایمنی آنلاین معرفی کرد

OpenAI از دو مدل هوش مصنوعی جدید با هدف ارتقای ایمنی آنلاین رونمایی کرده است. این مدل‌ها با نام‌های gpt-oss-safeguard-120b و gpt-oss-safeguard-20b معرفی شده‌اند و به گفته این شرکت، قرار است به توسعه‌دهندگان کمک کنند تا انواع آسیب‌های آنلاین را در پلتفرم‌های خود شناسایی و مدیریت کنند.
کد خبر :14949 آبان 8, 1404

فهرست مطالب

Toggle
  • مدل‌های وزن-باز؛ گامی به سوی شفافیت کامل
  • مدل‌هایی برای شناسایی و طبقه‌بندی آسیب‌های آنلاین
  • همکاری OpenAI با Discord، SafetyKit و ROOST
  • بازخورد پژوهشگران و مسیر آینده Safeguard
  • پاسخ به انتقادات درباره اخلاق هوش مصنوعی
  •  ارزش OpenAI و تحولات سازمانی
  • جمع‌بندی

به گزارش خبرمحور به نقل CNBC، شرکت OpenAI امروز از دو مدل استدلالگر جدید با نام‌های gpt-oss-safeguard-120b و gpt-oss-safeguard-20b رونمایی کرد. این مدل‌ها نسخه‌های بهینه‌شده‌ای از خانواده gpt-oss هستند که پیش‌تر در ماه آگوست معرفی شده بود.

هدف اصلی از توسعه این مدل‌ها، افزایش شفافیت، امنیت و قابلیت نظارت هوشمند بر محتوای آنلاین است — اقدامی که می‌تواند مسیر تازه‌ای برای هوش مصنوعی اخلاق‌مدار و مسئولانه ایجاد کند.

مدل‌های وزن-باز؛ گامی به سوی شفافیت کامل

OpenAI اعلام کرده است که مدل‌های جدید Safeguard به‌صورت وزن-باز (open-weight) منتشر شده‌اند.
این اصطلاح بدین معناست که پارامترهای داخلی مدل‌ها — که کیفیت و دقت پاسخ‌ها را تعیین می‌کنند — به‌صورت عمومی در دسترس قرار دارند.

با این کار، شرکت‌ها و پژوهشگران می‌توانند مدل‌ها را بر اساس نیاز، خط‌مشی یا حساسیت‌های محتوایی خاص خود تنظیم کنند.

این اقدام تفاوتی مهم با مدل‌های متن‌باز (open-source) دارد. در مدل متن‌باز، کد منبع کاملاً قابل ویرایش است؛ اما در مدل وزن-باز، کاربران به ساختار آموزش و پارامترها دسترسی دارند، نه الزاماً به کد کامل.
این سطح از شفافیت به توسعه‌دهندگان اجازه می‌دهد تا بفهمند مدل چگونه تصمیم‌گیری می‌کند و چرا یک نتیجه خاص را ارائه داده است — ویژگی‌ای که در حوزه ایمنی دیجیتال اهمیت بالایی دارد.

openai-launches-online-safety-reasoning-models

مدل‌هایی برای شناسایی و طبقه‌بندی آسیب‌های آنلاین

مدل‌های Safeguard به‌طور ویژه برای تحلیل محتوای آنلاین، شناسایی تهدیدها و آسیب‌های دیجیتال طراحی شده‌اند.
به گفته OpenAI، سازمان‌ها و پلتفرم‌ها می‌توانند این مدل‌ها را برای شناسایی رفتارهای خطرناک، گفتار نفرت‌انگیز، تقلب، محتوای جعلی یا سوءاستفاده‌های دیجیتال مورد استفاده قرار دهند.

به عنوان مثال:

  • یک سایت نقد و بررسی محصولات می‌تواند از Safeguard برای تشخیص نظرات جعلی یا تبلیغاتی استفاده کند.

  • انجمن‌های بازی‌های ویدیویی می‌توانند با این مدل، پست‌هایی را که شامل تقلب، نفرت‌پراکنی یا محتوای نامناسب هستند، طبقه‌بندی و فیلتر کنند.

  • حتی شرکت‌های رسانه‌ای یا آموزشی نیز قادرند از آن برای تحلیل امنیت گفت‌وگوهای کاربران بهره ببرند.

این مدل‌ها علاوه بر توانایی در تحلیل داده، قابلیت توضیح استدلال خود را نیز دارند؛ یعنی می‌توانند شرح دهند که چرا و چگونه به نتیجه‌ای خاص رسیده‌اند. چنین قابلیتی گامی بزرگ به سمت شفافیت و اعتماد در تصمیم‌گیری‌های هوش مصنوعی محسوب می‌شود.

همکاری OpenAI با Discord، SafetyKit و ROOST

توسعه مدل‌های Safeguard حاصل همکاری چندین نهاد فعال در حوزه ایمنی دیجیتال است.
بر اساس گزارش OpenAI، این مدل‌ها با مشارکت دیسکورد (Discord)، SafetyKit و سازمان ROOST توسعه یافته‌اند.
سازمان ROOST یکی از مؤسسات پیشرو در زمینه طراحی زیرساخت‌های ایمنی برای هوش مصنوعی است و نقش کلیدی در بهینه‌سازی بخش نظارتی این مدل‌ها داشته است.

«کامیل فرانسوا»، رئیس ROOST، در بیانیه‌ای رسمی اعلام کرد:

  • «با پیشرفت سریع هوش مصنوعی، ابزارهای ایمنی و تحقیقات بنیادی نیز باید همزمان رشد کنند و در دسترس همه قرار گیرند.»

این همکاری چندجانبه می‌تواند الگویی جدید برای تعامل میان بخش خصوصی، جامعه تحقیقاتی و نهادهای مدنی در جهت توسعه مسئولانه هوش مصنوعی باشد.

بازخورد پژوهشگران و مسیر آینده Safeguard

OpenAI فعلاً این مدل‌ها را در حالت پیش‌نمایش تحقیقاتی (Research Preview) منتشر کرده است. هدف از این مرحله، جمع‌آوری بازخورد از پژوهشگران، کارشناسان امنیت سایبری و توسعه‌دهندگان در سراسر جهان است.

بر اساس اعلام رسمی شرکت، وزن مدل‌ها از طریق پلتفرم Hugging Face در دسترس قرار گرفته و کاربران می‌توانند آنها را برای آزمایش و بهبود عملکرد دانلود کنند.

این اقدام نشان می‌دهد OpenAI قصد دارد روند توسعه Safeguard را به‌صورت شفاف و مشارکتی پیش ببرد. با وجود انتقاداتی که در ماه‌های اخیر نسبت به تجاری‌سازی سریع محصولات OpenAI مطرح شده، معرفی این مدل‌ها می‌تواند پاسخی به منتقدان باشد — مدلی باز، قابل تنظیم و متمرکز بر امنیت کاربران.

پاسخ به انتقادات درباره اخلاق هوش مصنوعی

در سال گذشته، برخی منتقدان و کارشناسان نسبت به سرعت رشد OpenAI و کم‌توجهی به ابعاد اخلاقی و امنیتی هشدار داده بودند.

اکنون معرفی Safeguard می‌تواند نشانه‌ای از تغییر رویکرد شرکت باشد؛ حرکتی در جهت تعادل میان نوآوری و مسئولیت‌پذیری.

OpenAI تأکید کرده است که این مدل‌ها صرفاً ابزار فنی نیستند، بلکه بستری برای تحقیقات آزاد در زمینه رفتار هوش مصنوعی و ایمنی محتوا خواهند بود.

به گفته مقامات شرکت، اگر پژوهشگران بتوانند از طریق Safeguard به درک بهتری از نحوه تصمیم‌گیری مدل‌ها برسند، مسیر آینده هوش مصنوعی شفاف‌تر و قابل اعتمادتر خواهد شد.

 ارزش OpenAI و تحولات سازمانی

ارزش شرکت OpenAI اکنون حدود ۵۰۰ میلیارد دلار برآورد شده است؛ عددی که نشان می‌دهد بازار جهانی هوش مصنوعی همچنان در حال رشد سریع است.

به گزارش CNBC، این شرکت همچنین اعلام کرده که ساختار سازمانی خود را بازسازی کرده است تا توسعه مدل‌های ایمن و مسئولانه در اولویت فعالیت‌های آتی قرار گیرد.

چت‌بات ChatGPT نیز با بیش از ۸۰۰ میلیون کاربر فعال هفتگی، یکی از پرمخاطب‌ترین محصولات در حوزه هوش مصنوعی مولد محسوب می‌شود.

به همین دلیل، گسترش ابزارهای ایمنی مانند Safeguard نه تنها برای کاربران، بلکه برای اعتبار OpenAI در بازار جهانی نیز اهمیت حیاتی دارد.

جمع‌بندی

مدل‌های جدید gpt-oss-safeguard را می‌توان نقطه عطفی در مسیر توسعه هوش مصنوعی ایمن دانست.
این فناوری با تمرکز بر شفافیت، قابلیت توضیح و تنظیم‌پذیری، به سازمان‌ها و توسعه‌دهندگان کمک می‌کند تا تهدیدهای دیجیتال را سریع‌تر شناسایی و مدیریت کنند.

OpenAI با انتشار عمومی وزن‌های این مدل‌ها، گامی مهم در جهت اعتمادسازی و توسعه اخلاق‌مدار برداشته است.
به‌نظر می‌رسد آینده هوش مصنوعی نه در انحصار، بلکه در همکاری و شفافیت جهانی رقم خواهد خورد.

برچسب ها:

هوش مصنوعی
من را دنبال کنید نوشته شده توسط

راحله رئیسی

هیچ نظر! یکی از اولین.

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پنج × 1 =

ترندهای روز

آزمون سراسری
ابران و روسیه
اتباع
ارتش جمهوری اسلامی ایران
ارز دیجیتال
اضطراب
اعمال شب اول ماه
افزایش حقوق

پیشنهاد سردبیر

  • صعود بورس با رکوردهای تازه | اطلاعات حیاتی برای معامله‌گران
  • آخرین نرخ طلا و سکه امروز در بازار ایران
  • تغییر مهم در مرحله پنجم کالابرگ؛ افزایش ۱۲۰ هزار تومانی
  • دربی ۱۰۶: ترکیب احتمالی استقلال و پرسپولیس | سورپرایزهای تاکتیکی دو سرمربی
  • کارت سوخت برگ برنده جدید خريداران خودروي کارکرده شد
  • بیوگرافی وحید کاظمی داور دربی 106 از تولد تا شهرت
  • فوری / مرد جوان در میدان رسالت خودکشی کرد
  • بورس سبز شد؛ رشد قابل توجه شاخص کل

بازار ایران

کالابرگ

جزئیات استعلام کالابرگ و ثبت اعتراض امروز منتشر شد

سهامداران

پرداخت سود سهامداران آغاز شد | بررسی مبالغ و زمان واریز

طلا

ارزانترين طلا براي سرمايه گذاري با پول کم کدام است؟

مشتری

نه مشتری راضی، نه تولیدکننده؛ بازار لوازم خانگی در وضعیت بحرانی

کالاهای

آخرین قیمت کالاهای اساسی در بازار ایران

اخبار سیاسی

  • پیگیری وضعیت سلامت رضا امیرخانی از سوی رهبر انقلاب
  • مانع اصلی آغاز مذاکرات ایران و آمریکا از زبان عراقچی/ ما هیچ‌گاه میز مذاکره را ترک نکرده‌ایم
  • توصیه وزیر کشور به استانداران درباره نحوه تعامل با سفارت چین
  • رسانه عراقی از سناریوی حمله اسرائیل به ایران خبر داد
  • عکس نیلوفر قلعه‌وند با پوشش خاص در سایت رهبر انقلاب
  • ۱۷ نماینده درخواست استیضاح وزیر نفت را مطرح کردند / ۹۲ همت از درآمد نفتی وصول نشده است
  • ۱۲ هزار کلاهک هسته‌ای جهان در چه کشورهایی قرار دارد؟ + جزئیات
  • رهبر انقلاب: صرفه‌جویی در آب، نان، گاز و بنزین ضروری است /واکنش به پیغام با واسطه ایران به آمریکا
حق اولاد
تعدیل
نورم
رنگ مو
زلزله
شهر ری
دکوراسیون
حافظ
پلیس فتا
منزلت
موشک
شوگر ددی
حق عائله مندی
آزمون سراسری
ایلان ماسک
امتیاز DxOMark
  • کلیه حقوق مادی و معنوی این سایت محفوظ و متعلق به پایگاه خبری خبر محور است و استفاده از آن با ذکر منبع بلامانع است.
  • صفحه نخست
  • اقتصادی
    • طلا و ارز
    • بانک
    • بورس
    • بیمه
    • صنعت و معدن
    • انرژی
    • راه و مسکن
    • اصناف
  • خودرو
  • سیاسی
  • بین الملل
  • فرهنگی
  • ورزشی
  • اجتماعی
    • حوادث
    • سلامت
    • سبک زندگی
  • علم و دانش
    • آموزش
    • فناوری
    • ارز دیجیتال
    • گوشی و تبلت
  • تماس با ما