image-suni-intellektbackend

Süni intellekt də insanlar kimi səhvlər edir: “ChatGPT”nin qərəzləri üzə çıxdı 

“ChatGPT” son araşdırmalara görə, insan kimi qərar qəbul etmə səhvlərinə yol verir. Həddindən artıq özünə inam kimi qərəzlər nümayiş etdirir. Riyaziyyatda yaxşı olsa da, süni intellektin etibarlılığını şübhə altına alan mühakimə tələb edən qərarlar verməkdə çətinlik çəkir.

Citypost.az araşdırmanın təfərrüatlarını diqqətə çatdırır.

Süni intellektin insanlardan daha etibarlı qərarlar verəcəyi fikri yeni bir araşdırma ilə sarsılıb. OpenAI tərəfindən hazırlanmış ChatGPT ən qabaqcıl süni intellekt modellərindən biridir, lakin o, insanların tez-tez buraxdığı qərar qəbul etmə səhvlərini təkrarlayır.

INFORMS Manufacturing & Service Operations Management jurnalında dərc edilən araşdırma süni intellektin düşündüyümüzdən daha çox bizə bənzədiyini ortaya qoyur.

İnsana bənzər hezeyanlar nümayiş etdirir

Tədqiqatçılar ChatGPT-ni 18 fərqli bias testinə məruz qoydular və nəticələr təəccüblü idi. Model sınaqların təxminən yarısında həddən artıq özünə inam, qumarbazın səhvi və qeyri-müəyyənlikdən qaçma kimi insana xas idrak tələlərinə düşdü. Süni intellekt riyaziyyat və məntiq problemlərində qüsursuz çıxış etsə də, subyektiv mühakimə tələb edən qərarlar qarşısında büdrədi.

Məsələn, o, ehtiyatlı olmağı seçdi və daha riskli, lakin potensial olaraq daha sərfəli variantları götürməkdənsə, öz dəqiqliyini çox qiymətləndirdi. Yeni nəsil GPT-4 modeli, analitik cəhətdən daha yaxşı olsa da, bəzən mühakimə əsaslı tapşırıqlarda daha aydın qərəzlər göstərdi.

Mütəxəssislər qeyd edirlər ki, süni intellekt də insan məlumatlarından öyrəndiyi üçün bu qərəzləri miras alır. Qərb Universitetindən Yang Chen deyir ki, “AI zehni qısa yollardan istifadə edərək insan kimi düşünür, Queen’s Universitetindən Anton Ovchinnikov isə əlavə edir: “Aydın suallarla yaxşı nəticə verir, lakin mühakimə zamanı insana bənzər səhvlər edir”. İş dünyasında işə qəbuldan kredit təsdiqinə qədər kritik qərarlar verən süni intellektdəki bu qüsurlar etibarlılıq müzakirələrini ön plana çıxarır.

Süni intellekt üçün də etik qaydalara ehtiyac varmı?

Tədqiqat göstərir ki, süni intellekt qərəzsiz qərar qəbul edən şəxs olmaqdan uzaqdır və insan qərəzlərini gücləndirmək riski daşıyır. Mütəxəssislər iddia edirlər ki, süni intellekt bir işçi kimi etik qaydalarla idarə edilməli və idarə olunmalıdır.

McMaster Universitetindən Meena Andiappan deyir: “Biz səhv düşüncəni avtomatlaşdırmaq əvəzinə təkmilləşdirməliyik”. Süni intellektin təsiri artdıqca, müntəzəm audit və model inkişafı onun insan qüsurlarını təkrarlamaqdansa, həqiqətən faydalı alətə çevrilməsi üçün vacib görünür. Bu tapıntılar həm də AI qaydaları üzərində işləyən hökumətlər və müəssisələr üçün xəbərdarlıq rolunu oynayır.

Nəticədə, ChatGPT insana bənzər qərar qəbul etmə səhvləri və qərəzləri ilə sürprizlər edir. Riyaziyyatda yaxşı, lakin mühakimə qabiliyyəti zəif olan süni intellekt insan təfəkkürünü əks etdirir. Ekspertlər vurğulayırlar ki, biznes və dövlət idarəçiliyində istifadə olunan süni intellektə nəzarət edilməlidir.

Yeganə

image-reklam1

  • whatsapp
  • messenger
  • telegram
  • vkontakte
  • odnoklassniki