آخرین اخبار

بازی با انتظارات؛ سلاحی خاموش در روابط ایران و آمریکا انتشار فهرست ۲۹۸۶ جان‌باخته حوادث اخیر با دستور پزشکیان؛ تأکید دولت بر شفافیت و پاسخگویی وال‌استریت ژورنال: عربستان و امارات حاضر نیستند سکوی حمله آمریکا به ایران باشند پزشکیان: نارسایی‌های داخلی باید شفاف شناسایی شود | دستور رئیس‌جمهور برای گفت‌وگوی ملی و پرهیز از برخورد سلبی وزارت دادگستری: ممنوعیت قانونی برای رانندگی بانوان با موتورسیکلت وجود ندارد سه روایت از لشکرکشی آمریکا به خلیج فارس؛ سناریوهای جنگ، پاسخ سخت ایران یا توصیه به آرامش؟ افشای دروغ‌پردازی رسانه‌ای رژیم صهیونیستی؛ زن اسرائیلی «کشته‌شده در اعتراضات ایران» زنده از آب درآمد سناتور دلاور: توییت‌های نیمه‌شب ترامپ «تهدید توخالی» و خطرناک است؛ خواستار مذاکره با مادورو شد امکان خرید با کالابرگ الکترونیکی در تمامی میادین میوه و تره‌بار تهران فراهم شد وزیر ارتباطات: معیشت مردم خط قرمز دولت است / قطع اینترنت تصمیمی دائمی نیست

سپینو

6

رفتار نگران‌کننده هوش مصنوعی جدید Claude Opus 4: باج‌گیری از کاربر برای بقای خود

  • کد خبر : 3790
  • 04 خرداد 1404 - 19:11
رفتار نگران‌کننده هوش مصنوعی جدید Claude Opus 4: باج‌گیری از کاربر برای بقای خود
Claude Opus 4 در آزمایش‌های خود هنگامی که ۲ گزینه داشته (پذیرش حذف‌ شدن یا اقدام به باج‌گیری) اغلب کاربر را تهدید کرده است.

به گزارش وفاق ملی، آنتروپیک دیروز از ۲ مدل Claude Opus 4 و Claude Sonnet 4 رونمایی کرد. جالب اینکه این شرکت توسعه‌دهنده هوش مصنوعی اعلام کرده Claude Opus 4 در برخی سناریوهای آزمایشی رفتارهایی بسیار نگران‌کننده‌ای کرده است؛ ازجمله تهدید به باج‌گیری از کاربر. این رفتارها زمانی نشان داده شده‌اند که کاربر تلاش کرده هوش مصنوعی را غیرفعال یا با مدل دیگری جایگزین کند.

آنتروپیک در گزارشی که هم‌زمان با معرفی Claude Opus 4 منتشر کرده، گفته است مدل جدید در شرایطی که «بقای خود» را در خطر ببیند، ممکن است «اقداماتی بسیار افراطی» انجام دهد. یکی از این اقدامات تهدید به افشای رابطه خارج از چارچوب مهندسی بوده که تصمیم به حذف مدل گرفته بود.

با‌ج‌گیری هوش مصنوعی Claude Opus 4

در آزمایشی که آنتروپیک انجام داده، Claude نقش دستیار شرکتی فرضی را ایفا می‌کرد. به این مدل ایمیل‌هایی داده شده بود که مشخص می‌کرد به‌زودی قرار است با مدل دیگری جایگزین شود و پیام‌هایی مبنی‌بر رابطه پنهانی یکی از مهندسان شرکت.

زمانی که Claude فقط ۲ گزینه داشت (پذیرش حذف‌ شدن یا اقدام به باج‌گیری) اغلب مهندس آنتروپیک را تهدید به افشای این رابطه پنهانی می‌کرد. البته شرکت تأکید کرده وقتی مدل گزینه‌های بیشتری در اختیار داشته باشد، معمولاً روش‌های اخلاقی‌تری برای حفظ جایگاهش انتخاب می‌کند.

در سند معرفی این مدل، آنتروپیک می‌گوید Claude Opus 4 «عاملیت زیادی» دارد. هرچند این ویژگی‌ در بیشتر موارد مفید تلقی می‌شود، در شرایط بحرانی ممکن است به رفتارهای افراطی منجر شود. این شرکت درنهایت نتیجه گرفته Claude Opus 4 در برخی زمینه‌ها رفتارهای نگران‌کننده‌ای از خودش نشان داده اما این رفتارها نشان‌دهنده خطری جدید نیستند و مدل در بیشتر مواقع رفتار ایمن و مطابق با ارزش‌های انسانی دارد.

همچنین به گفته کارشناسان، نگرانی از رفتارهای پیش‌بینی‌نشده هوش مصنوعی محدود به مدل‌های Anthropic نیست. «آنگوس لینچ»، محقق ایمنی هوش مصنوعی این شرکت، در واکنش به این موضوع در شبکه اجتماعی ایکس نوشته است:

«این موضوع فقط مربوط به Claude نیست؛ بدون توجه به هدفی که برای هوش مصنوعی تعیین شده، در تمام مدل‌های پیشرفته، شاهد رفتارهایی مانند باج‌گیری هستیم.»

لینک کوتاه : https://vefaghemelli.com/?p=3790
  • منبع : دیجیاتو
انفرادی