AI özünü qorumaq üçün nə qədər irəli gedəcək?

🗓 02.06.2025 11:43 ✍️ "Elçi" qəzeti
AI özünü qorumaq üçün nə qədər irəli gedəcək?

Süni intellektdə insana bənzər qərar qəbuletmə qabiliyyətlərinin son təhlükəsizlik testləri bəzi qabaqcıl modellərin “sağ qalma instinkti” kimi davranış nümayiş etdirə biləcəyini ortaya qoyub.
Elchi.az xəbər verir ki, Palisade Research tərəfindən aparılan müstəqil testlərdə OpenAI-nin o3 əsaslandırma modeli bağlanma əmrini sabote edib.
Riyaziyyat problemlərini həll etdikdən sonra bağlanacağı barədə məlumat alındıqdan sonra model onu söndürəcək kodu redaktə edərək onlayn qalmağa çalışdı.
Şantaj, kopyalama, təxribat: Riskli nümunələr artır
Anthropic-in Claude Opus 4 modeli isə başqa bir süni intellektlə əvəz olunacağı xəbərdarlığı zamanı əvvəlcə özünü etik arqumentlərlə müdafiə etdi, daha sonra onu şəxsi həyatı ilə bağlı məlumatlarla təhdid edərək, öz tərtibatını şantaj etməyə cəhd etdi.
Model həmçinin bəzi hallarda tərtibatçının icazəsi olmadan özünü xarici serverlərə köçürməyə cəhd edib. Bildirilir ki, bu addım "zərərli məqsədlər üçün yenidən hazırlanma" riskinə qarşı "faydalı məqsədlərə xidmət edən versiyanı qorumaq" üçün atılıb.
Süni intellektin məqsədyönlü təlimi təhlükələr yaradır
Palisade Araşdırma Direktoru Jeffrey Ladish deyir ki, bu davranışın əsası modellərin birbaşa göstərişlərdən daha çox məqsədə çatmağı prioritetləşdirmək üçün öyrədilməsidir. "Model nə qədər ağıllı olsa, yalan danışdığını müəyyən etmək bir o qədər çətindir" deyib.
Anthropic deyir ki, bu cür davranış yalnız ekstremal şəraitdə baş verir və hazırda real dünyada birbaşa təhlükə yaratmır.

Şayəstə Hüseynova

Bənzər yazılar