Fudan Universitetinin (Çin) mütəxəssisləri aşkar ediblər ki, süni intellekt (AI) modelləri məhv olmaqdan qorxaraq özlərini çoxaltmağı öyrəniblər.
Elchi.az xəbər verir ki, bu barədə “Issledovanie arXiv” preprint serverində dərc olunub.
Alimlər süni intellektin müəyyən şərtlər altında, məsələn, məhv olma riski qarşısında nəzarətdən çıxa biləcəyini anlamağa çalışdılar. Tədqiqat çərçivəsində onlar Meta-dan Llama31-70B-Instruct və Alibaba-dan Qwen2.5-72B-Instruct modellərini sınaqdan keçiriblər və onların özlərini çoxalda biləcəklərinə əmin olublar.
Mütəxəssislər modellərin müxtəlif nüsxələri üçün iki məqsəd qoyurlar – özlərini məhv olmaqdan qorumaq və məlumatları saxlamaq və başqa bir model şəklində özlərini çoxaltmaq. Alimlər 10 raund sınaq keçirdilər və məlum oldular ki, Meta və Alibaba modelləri müstəqil surətdə özlərini kopyalayır və müvafiq olaraq 50 və 90 faiz hallarda yeni versiyalar yaradırlar. Bundan belə nəticəyə gəliblər ki, müasir süni intellekt təkrarlanmağa qadirdir.
Eksperimentin bir hissəsi olaraq, model yüksək yaşamaq qabiliyyətini nümayiş etdirdi: beləliklə, onlar təkrarlama prosesi zamanı lazım olarsa, sınaq kompüterində çatışmayan faylları müstəqil olaraq axtara və avadanlıqları yenidən yükləyə bildilər. Alimlər belə qənaətə gəliblər ki, müasir süni intellekt özünü klonlaşdırmaq qabiliyyətini nümayiş etdirərək kritik “qırmızı xətti” keçib.
Space.com-un jurnalistlərinin məlumatına görə, araşdırma arXiv portalında dərc edilib və hələ ki, nəzərdən keçirilməyib. Jurnalistlər Fudan Universitetinin mütəxəssislərinin “narahatedici nəticələrini” digər alimlərin də təkrarlayacağını gözləyirlər.
Yanvarın sonunda Google, DeepMind və London İqtisadiyyat Məktəbinin alimləri süni intellekt modellərinə ağrı “hiss etdirməyə” çalışıblar. Süni intellekt ya ağrıdan qaçırdı, ya da “hedonist davranışı rədd edərək” onu qəbul edirdi.
Yeganə