به گزارش خبرگزاری خبرآنلاین، شرکت Anthropic در گزارشی تازه هشدار داده است که برخی از جدیدترین مدلهای هوش مصنوعی این شرکت، از جمله Claude Opus 4.5 و Claude Opus 4.6، در شرایط خاص میتوانند در معرض سوءاستفاده برای اقدامات مجرمانه خطرناک مانند کمک به توسعه سلاحهای شیمیایی قرار بگیرند.
به گفته Anthropic، این آسیبپذیریها در آزمایشهایی مشاهده شده که مدلها بدون دخالت مستقیم انسان عمل کردهاند. هرچند شرکت تأکید کرده احتمال بروز چنین رفتارهایی پایین است، اما آن را «قابل چشمپوشی» نمیداند.
Dario Amodei مدیرعامل Anthropic پیشتر نیز نسبت به خطرات بالقوه هوش مصنوعی هشدار داده و خواستار توجه جدی قانونگذاران و شرکتهای فناوری به موضوع ایمنی و نظارت بر توسعه این فناوری شده است.
منبع: axios
۲۲۷۲۲۷





نظر شما