00:00:00
Yazar
Asiman Vəliyeva
15.04.2026 21:23 16 2 dəq oxuma
Texnologiya

Neyroşəbəkələr və risklər: gələcəyin kibertəhlükələri

Neyroşəbəkələr və risklər: gələcəyin kibertəhlükələri

Süni intellekt texnologiyalarının sürətli inkişafı fonunda həm informasiya mühiti, həm də kibertəhlükəsizlik sahəsində yeni tendensiyalar formalaşır. Xüsusilə, neyroşəbəkələrin imkanlarının genişlənməsi kibercinayətkarlığın daha mürəkkəb və texnoloji xarakter almasına səbəb olur, bu isə qlobal miqyasda riskləri artırır.


Mövzu ilə bağlı “İnformator.az”a açıqlamasında İT üzrə mütəxəssis Elvin Həsənov bildirir ki, əvvəllər kiberhücumlar daha çox texniki zəifliklər üzərindən qurulurdusa, indi süni intellekt vasitəsilə insanı aldatmaq vəya sistemləri daha ağıllı şəkildə manipulyasiya etmək mümkün olub:


“İlk olaraq yeni yaranan risklərdən danışsaq, ən böyük dəyişiklik hücumların fərdiləşməsidir. Məsələn, əvvəllər fişinq mesajları kütləvi və sadə olurdusa, indi isə AI vasitəsilə konkret insana uyğunlaşdırılmış, dili düzgün, hətta onun iş mühitinə uyğun mesajlar hazırlanır. Deepfake texnologiyaları ilə rəhbərin səsi və ya görüntüsü imitasiya edilib əməkdaşlara saxta tapşırıqlar verilə bilir. Bundan əlavə, zərərli proqramlar da artıq daha adaptiv olur. Yəni özünü gizlədə, davranışını dəyişə və klassik antiviruslardan yayınmağı bacarır. Ümumiyyətlə, AI əsaslı hücumların aşkarlanmasında ən effektiv yanaşma yenə də süni intellektin özündən istifadə etməkdir. Bu sahədə əsasən davranış analizi ön plana çıxır. Yəni sistem yalnız imzaya baxmır, istifadəçinin və ya şəbəkənin davranış modelini öyrənir və bundan kənara çıxan hərəkətləri avtomatik aşkar edir. Məsələn, istifadəçi hər gün eyni saatda sistemə daxil olur, amma birdən gecə saat 3-də fərqli ölkədən giriş cəhdi olur. Bu artıq anomaliya kimi qeyd olunur. Bundan əlavə AI-nin təhlükəsizlik sistemlərinə inteqrasiyası ilə yanaşı əsas çətinlikləri texnologiyanın öz mürəkkəbliyindən qaynaqlanır. Belə ki, keyfiyyətli və düzgün etiketlənmiş data olmadan AI düzgün işləyə bilmir. Bu sistemlərin qurulması və saxlanması ciddi hesablama resursları tələb edir. False positive deyilən problem isə yəni sistem bəzən normal fəaliyyəti də təhlükə kimi qiymətləndirə bilər. Bu da əməliyyat prosesinə əlavə yük yaradır. Bir də vacib məqam isə AI sistemlərinin özləri də hücum hədəfinə çevrilə bilər, yəni modelin manipulyasiya olunması kimi risklər mövcuddur”.


Ədilə Hüseynzadə

#neyroşəbəkələr #gələcəyin #risklər: #xəbər #baki
Paylaş:

Şərhlər (0)

Oxşar Xəbərlər