Anthropic: مدل‌های جدید «کلود» می‌توانند برای جرایم خطرناک استفاده شوند

شرکت آمریکایی Anthropic اعلام کرده است که جدیدترین مدل‌های هوش مصنوعی‌اش در برخی شرایط می‌توانند در معرض سوءاستفاده برای «جرایم فجیع» از جمله کمک به توسعه سلاح‌های شیمیایی قرار بگیرند. این هشدار در گزارشی که اواخر سه‌شنبه منتشر شد، مطرح شده است.

به گزارش خبرگزاری خبرآنلاین، شرکت Anthropic در گزارشی تازه هشدار داده است که برخی از جدیدترین مدل‌های هوش مصنوعی این شرکت، از جمله Claude Opus 4.5 و Claude Opus 4.6، در شرایط خاص می‌توانند در معرض سوءاستفاده برای اقدامات مجرمانه خطرناک مانند کمک به توسعه سلاح‌های شیمیایی قرار بگیرند.

به گفته Anthropic، این آسیب‌پذیری‌ها در آزمایش‌هایی مشاهده شده که مدل‌ها بدون دخالت مستقیم انسان عمل کرده‌اند. هرچند شرکت تأکید کرده احتمال بروز چنین رفتارهایی پایین است، اما آن را «قابل چشم‌پوشی» نمی‌داند.

Dario Amodei مدیرعامل Anthropic پیش‌تر نیز نسبت به خطرات بالقوه هوش مصنوعی هشدار داده و خواستار توجه جدی قانون‌گذاران و شرکت‌های فناوری به موضوع ایمنی و نظارت بر توسعه این فناوری شده است.

منبع: axios

۲۲۷۲۲۷

کد مطلب 2181539

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
9 + 7 =