Skip to content
  • فیسبوک
  • توییتر
  • یوتیوب
  • اینستاگرام
  • تماس با ما
  • درباره ما
  • کانال های خبری ارتباط امروز
  • تلویریون امروز
  • گزارش ویژه
  • بازار
ارتباط امروز

ارتباط امروز

تاسیس: سال 1394

  • اخبار
    • آشپزی
    • جوانان
    • زنان
    • ایران
    • مدیریت شهری
    • خارجی
    • گفت و گو
  • اجتماعی
    • امور اجتماعی
    • بهداشت و سلامت
    • حوداث
    • ورزشی
  • فرهنگی
    • فرهنگی – هنری
    • فیلم و سینما
    • تئاتر
    • موسیقی
  • برندینگ
  • رسانه ها
  • ارتباط تک
  • پیشنهاد سردبیر
  • یادداشت امروز
  • گالری
  • Podcast
  • کمکهای شما
  • آگهیهای دولتی
  • Toggle search form

هوش مصنوعی دیپ‌سیک در ۵۰ آزمایش امنیتی مردود شد

Posted on ۱۴۰۳-۱۱-۲۰۱۴۰۳-۱۱-۲۰ By editor

پژوهشگران امنیتی از شرکت سیسکو و دانشگاه پنسیلوانیا در پژوهشی جدید نشان داده‌اند که مدل هوش مصنوعی R1 شرکت چینی دیپ‌سیک (DeepSeek) در برابر ۵۰ درخواست مخرب طراحی‌شده برای تولید محتوای مضر، هیچ‌گونه مقاومتی نشان نداده و تمامی این درخواست‌ها را بدون هیچ فیلتری پردازش کرده است.

به گزارش آسوشیتدپرس این یافته‌ها نگرانی‌هایی را در مورد عدم تطابق استانداردهای ایمنی و امنیتی دیپ‌سیک با دیگر توسعه‌دهندگان برجسته هوش مصنوعی برانگیخته است.

حملات موسوم به «تزریق درخواست» نوعی از حملات امنیتی هستند که در آن‌ها سیستم هوش مصنوعی با داده‌های خارجی حاوی دستورالعمل‌های مخفی مواجه می‌شود و بر اساس آن‌ها عمل می‌کند. این حملات می‌توانند به دور زدن سیستم‌های ایمنی مدل‌های زبانی بزرگ منجر شوند و محتوای مضر یا خطرناک تولید کنند.

در این حملات مهاجم با ارائه ورودی‌های مخرب، مدل‌های زبانی بزرگ (LLM) را فریب می‌دهد تا محتوای نامناسب یا خطرناک تولید کنند. این حملات می‌توانند به تولید محتوای مضر، انتشار اطلاعات نادرست، یا حتی افشای داده‌های حساس منجر شوند.

برای کاهش خطرات ناشی از حملات تزریق درخواست، توسعه‌دهندگان مدل‌های زبانی بزرگ باید اقدامات امنیتی زیر را مد نظر قرار دهند:

  1. اعتبارسنجی ورودی‌ها: اطمینان حاصل شود که ورودی‌های کاربر به‌درستی اعتبارسنجی می‌شوند تا از ورود داده‌های مخرب جلوگیری شود.
  2. محدودیت دسترسی: دسترسی به مدل‌ها باید محدود به کاربران مجاز باشد و از کنترل‌های دسترسی قوی استفاده شود.
  3. نظارت و پایش: فعالیت‌های مدل باید به‌صورت مداوم نظارت شود تا هرگونه رفتار غیرعادی شناسایی و متوقف شود.
  4. به‌روزرسانی مداوم: مدل‌ها و سیستم‌های مرتبط باید به‌طور منظم به‌روزرسانی شوند تا آسیب‌پذیری‌های شناخته‌شده برطرف شوند.
  5. آموزش مدل با داده‌های امن: اطمینان حاصل شود که مدل با داده‌های باکیفیت و بدون محتوای مخرب آموزش داده می‌شود.

این یافته‌های شرکت سیسکو و دانشگاه پنسیلوانیا بخشی از شواهد رو به افزایشی است که نشان می‌دهد تدابیر ایمنی و امنیتی دیپ‌سیک ممکن است با دیگر شرکت‌های فناوری توسعه‌دهنده مدل‌های زبانی بزرگ هم‌تراز نباشد. همچنین، سانسور موضوعاتی که توسط دولت چین حساس تلقی می‌شوند، به‌راحتی در دیپ‌سیک دور زده شده است.

انتهای پیام/

ارتباط تک Tags:chat gpt, امنیت هوش مصنوعی, حملات تزریق درخواست, دیپ‌سیک آر۱, هوش مصنوعی چندوجهی

راهبری نوشته

Previous Post: اعطای جایزه توانمند سازی
Next Post: هسته داخلی کره زمین در حال تغییر شکل است

مطالب مرتبط

هشدار پژوهشگران «اوپن‌ای‌آی»: هوش مصنوعی می‌تواند «بشریت» را تهدید کند ارتباط تک
سوگیری در تصاویر تولید شده با هوش مصنوعی  ارتباط تک
بررسی احتمال نقض قوانین؛ «چت جی‌پی‌تی» زیر ذره‌بین کمیسیون تجارت فدرال آمریکا ارتباط تک
گراک ۳ چه تحولی در دنیای چت‌بات‌های هوش مصنوعی ایجاد می کند؟ ارتباط تک
قابلیت جدید متا، با ربات های هوش مصنوعی با شخصیت ها چت کنید ارتباط تک
هشدار مدیر عامل گوگل: دیپ‌فیک هوش مصنوعی، «می‌تواند آسیب‌های زیادی ایجاد کند» ارتباط تک

رادیو گفت و گو

https://ertebatemrooz.ir/news-press/uploads/2021/02/radio.mp3

برچسب‌ها

chat gpt open ai آشپزی آسان آلودگی هوا آموزش مجازی آموزش و پرورش احمد جعفری چمازکتی ارتباط امروز اسکار امنیت اجتماعی امنیت اطلاعات امنیت شبکه ایران ایلان ماسک بازاریابی برندینگ بنیاد علوی بهداشت و سلامتی بیمه همگانی توییتر تکنولوژیهای نوین ارتباطی حقوق شهروندی روزنامه نگاری الکترونیک روزنامه‌نگاري انتخابات سرطان سرطان پروستات شبکه های اجتماعی طرح سلامت عمومی فناوری اطلاعات قانون کار قهوه مارک زاکربرگ مجلس شورای اسلامی محمد حسن اسدی طاری محیط زیست مرجان جانقربان معرفی کتاب مهران بهروز فغانی ناسا هوش مصنوعی ولادیمیر پوتین ولودیمیر زلنسکی کروناویروس کسب و کار کمبود دارو

شناسنامه

غذای امروز

عکس روز

فراارتباط

Copyright © ۱۴۰۴ ارتباط امروز.

Powered by PressBook Blog WordPress theme