00:00:00
Yazar
Admin User
25.12.2025 18:35 100 2 dəq oxuma
İqtisadiyyat

Süni intellektdən virtual cəmiyyət

Süni intellektdən virtual cəmiyyət

Altera” şirkətinin “Sid” layihəsində bir neçə süni intellekt agenti “Minecraft” əsaslı virtual mühitdə öz sosial strukturlarını yaradıb. Agentlər peşələrə bölünüb (fermer, mühəndis, mühafizəçi və s.), sosial məqsədlərini yeniləyib və bir-biri ilə qarşılıqlı əlaqədə olublar.

 

Lakin eksperiment problemləri də üzə çıxarıb: bəzi agentlər eyni hərəkətləri təkrarlayaraq “sıxışıb qalıb”, kommunikasiya səhvləri “halüsinasiyalar kaskadı” ilə nəticələnib. İnsanlarla qarşılıqlı əlaqədə isə bəzi agentlər xarici tələbləri görməzdən gəlib və həddindən artıq öz məqsədlərinə fokuslanıblar.

 

Mövzu ilə bağlı IT mütəxəssizi Eyvaz Kərimov “İnformator.az”a açıqlamasında bildirib ki, belə sistemlər üçün güclü monitorinq, səhv aşkarlama və müdaxilə mexanizmləri vacibdir:

 

“Müasir AI agentləri yalnız verilmiş tapşırıqları icra etməklə kifayətlənmir, həm də mühitə uyğun olaraq rol bölgüsü, əməkdaşlıq və prioritet formalaşdırmaq kimi davranışlar sərgiləyə bilir. Bu, süni intellektin adaptiv və qismən müstəqil qərarvermə potensialının artdığını göstərir.

 

Lakin risklər də mövcuddur: agentlərin məqsədləri insan niyyətləri ilə tam uyğunlaşmadıqda, sistem nəzarətdən çıxa və ya arzuolunmayan davranış modelləri yarada bilər. Xüsusilə uzunmüddətli və az nəzarətli mühitlərdə bu, təhlükəsizlik və etik problemlərə yol aça bilər.

 

Bu hallar çoxagentli sistemlərdə “zəncirvari səhv” riskini açıq şəkildə göstərir. Bir agentdə yaranan yanlış interpretasiya və ya halüsinasiyanın digər agentlərə ötürülməsi ümumi sistem davranışını pozur. Nəticədə sistem dayanıqlığını itirə və real mühitlərdə, məsələn: logistika, təhlükəsizlik və ya maliyyə sistemlərində ciddi problemlərə səbəb ola bilər. Bu da göstərir ki, belə sistemlər üçün güclü monitorinq, səhv aşkarlama və müdaxilə mexanizmləri vacibdir.

 

İnsan xarakterinə bənzər davranışlar AI agentlərini istifadəçilər üçün daha anlaşılan və “təhlükəsiz” kimi göstərə bilər. Bu, qarşılıqlı əlaqəni asanlaşdırsa da, eyni zamanda risklidir. İnsanlar bu agentlərə həddindən artıq etibar edə, onların imkanlarını və məsuliyyətlərini səhv qiymətləndirə bilərlər. Etik baxımdan isə, bu cür davranışlar emosional manipulyasiya, məsuliyyətin qeyri-müəyyənliyi və qərarların izah edilə bilməməsi kimi problemlər yarada bilər. Buna görə də AI sistemlərinin “insanabənzər” olması ilə “şəffaf və nəzarətli” olması arasında balans qorunmalıdır”.

 

Aydan Əsgərxanlı

#haber #gündem #yeni
Paylaş:

Şərhlər (0)

Oxşar Xəbərlər