00:00:00
Yazar
Admin User
18.11.2025 19:11 146 3 dəq oxuma
Maraqlı

"Google" şirkətinin rəhbəri müasir süni intellekt texnologiyalarını tənqid edib

"Google" şirkətinin rəhbəri müasir süni intellekt texnologiyalarını tənqid edib

Süni intellektin həyatın bütün sahələrinə sürətlə yayılması həm imkanlar, həm də risklər doğurur. “Google”un baş direktoru Sundar Piçai BBC-yə müsahibəsində bildirib ki, insanlar AI cavablarına kor-koranə güvənməməlidir, çünki bu texnologiyalar hələ də səhvlərə meyillidir və yanlış qərarlar həm istifadəçilərə, həm də şirkətlərə ciddi təsir göstərə bilər. Bu açıqlama süni intellektin məsuliyyətli istifadəsinin nə qədər vacib olduğunu bir daha gündəmə gətirir.

 

Mövzu ilə bağlı “İnformator.az”a açıqlamasında “Alas acedemy”nin direktoru,süni intellekt mütəxəssisi Natiq Məmişov bildirib ki, ilk olaraq, mənbə yoxlamasını qeyd etməliyik :

 

“AI-dən aldığımız məlumatı hər zaman etibarlı mənbələrlə, rəsmi saytlar, elmi məqalələr, dövlət qurumları və akademik portallarla yenidən yoxlamalıyıq. Xüsusilə faktlar, tarix, tibbi və hüquqi məlumatlar barədə. İkinci yanaşma çoxlu yoxlamadır. Eyni suala bir neçə fərqli platformadan Googledan, Wikipediadan, rəsmi sənədlərdən, hətta müxtəlif AI modellərindən cavab almaq. Bu, məlumatı daha sabit və etibarlı edir.

 

Üçüncü olaraq, “pagination test” və ya detallı suallardan istifadə etmək lazımdır. AI-yə dəqiq və ardıcıl suallar veririk və cavabların dəyişib-dəyişmədiyini yoxlayırıq. Əgər cavablar hər dəfə fərqlidirsə, deməli, məlumat sabit deyil. Bunun üçün müəyyən qədər prompt engineering bacarığı da tələb olunur. Dördüncü vacib məsələ mütəxəssis təsdiqidir. Tibb, hüquq, maliyyə, mühəndislik kimi kritik sahələrdə insan mütəxəssisin rəyini mütləq şəkildə əlavə təsdiq kimi almalıyıq. Hazırda ən çox diqqət yetirilməli məqam məhz budur kimsə məlumatı təsdiq etməlidir.

 

Beşinci ən fundamental yanaşma sağlam şübhədir. AI bəzən çox səlist və özündən əmin tonda danışa bilər, amma bu, cavabın 100% doğru olduğu anlamına gəlmir. Süni intellektin də səhv edə biləcəyini həmişə nəzərə almalıyıq. Yəni ümumi olaraq, AI-dən maksimum fayda almaq üçün istifadəçi tərəfdən də müəyyən diqqət, yoxlama və tənqidi düşüncə tələb olunur.

 

Birincisi, hallucination, yəni AI-ın uydurma cavab yaratmasıdır. Model bəzən dəqiq cavabı bilmir, amma sintaktik olaraq düzgün cümlə qurduğu üçün sanki həqiqətmiş kimi məlumat təqdim edir. Bu, sahədə ən ciddi problemlərdən biridir və biz də üzərində araşdırma aparırıq.

 

İkinci məsələ təlim məlumatlarının qeyri-dəqiqliyidir. AI internetdən öyrəndiyi üçün oradakı səhvləri də mənimsəyir. Bu, “garbage in garbage out” prinsipi ilə işləyir. Yəni insan kimi: mənbədə səhv çoxdursa, öyrəndiyi də səhv olacaq.

 

Üçüncüsü kontekst itkisidir. Uzun dialoqlarda model əvvəlki mesajların bir hissəsini unudur və nəticədə ziddiyyətli cavablar yarana bilir.

 

Dördüncü problem anlama qabiliyyətinin imitasiya olmasıdır. AI əslində məlumatı başa düşmür, sadəcə ehtimalən ən uyğun cümləni qurur. Bu da fakt səhvlərinə səbəb olur.

 

Beşinci məsələ real vaxt məlumatının olmamasıdır. Bəzi modellər internetə bağlı deyil, məlumat bazası yenilənmədiyi üçün aktual xəbərlərdə yanılmalar olur.

 

Nəhayət, altıncı problem prompt-un qeyri-dəqiqliyidir. İstifadəçi sualı dəqiq qoymadıqda, model boşluğu öz fantaziyası ilə doldurur. Əslində həyatda da belədir: düzgün cavab almaq üçün düzgün sual vermək lazımdır “.

 

Ədilə Hüseynzadə

#haber #gündem #yeni
Paylaş:

Şərhlər (0)

Oxşar Xəbərlər