- Maraq dairəsi
- 10 Oktyabr 20:41
- 1 314
Süni intellekt platformalarında kibertəhlükəsizlik: gələcəyin gücü və riski bir yerdə

Süni intellekt və maşın öyrənməsi platforması olan “Red Hat OpenShift AI”da boşluq (CVE-2025-10725) aşkar edilib. Elektron Təhlükəsizlik Xidmətindən (ETX) verilən məlumata görə, platformada istifadəçi rollarının idarəedilməsi komponentində imtiyaz yüksəltmə boşluğu tapılıb. Bu, o deməkdir ki, adi istifadəçi səviyyəsində imtiyaz əldə etmiş kiberdələduz, sistemdə administrator səlahiyyətlərini ələ keçirə və yüksək səviyyəli tapşırıqları icra edə bilər. Bu xəbər texnologiya dünyasında bir daha göstərdi ki, süni intellekt yalnız gələcəyin fürsəti deyil, həm də gələcəyin ən böyük təhlükəsizlik çağırışıdır.
Süni intellekt sistemləri artıq təkcə məlumat emalı və analiz vasitəsi deyil, həyatın bütün sahələrinə nüfuz edən idarəetmə mexanizmlərinə çevrilib. Maliyyə əməliyyatlarından tutmuş səhiyyəyə, hərbi texnologiyalardan avtomatlaşdırılmış istehsala qədər hər bir kritik sahə bu sistemlərdən asılı vəziyyətə gəlir. Lakin bu asılılıq paralel şəkildə risklərin də böyüməsinə gətirib çıxarır. “Red Hat OpenShift AI”da aşkarlanan boşluq, əslində, süni intellekt ekosistemlərinin əsas zəif nöqtələrini göstərən klassik nümunədir – sistemin insan tərəfindən idarə olunan hissəsində yaranan kiçik bir səhv bütün infrastrukturu təhlükəyə ata bilər.
İmtiyaz yüksəltmə kimi boşluqlar texnologiya təhlükəsizliyində ən riskli hallardan biridir. Çünki bu tip boşluqlar kiberdələduzlara sistemin dərin qatlarına müdaxilə etməyə, gizli məlumatlara çıxış əldə etməyə, prosessləri dəyişməyə və hətta təhlükəsizlik loglarını silməyə imkan verir. Süni intellekt platformaları bu baxımdan xüsusilə həssasdır, çünki onlar çoxsaylı modullardan ibarət kompleks strukturlardır. Hər bir modulun daxilində yüzlərlə sətir kod və minlərlə konfiqurasiya parametri olur. Yalnız bir zəif bağlantı bütün sistemin təhlükəsizliyini poza bilər.
Bu hadisə həm də süni intellekt sahəsində etimad məsələsini gündəmə gətirir. İnsanlar və şirkətlər bu texnologiyalara böyük miqdarda məlumat ötürür, qərarların bir hissəsini avtomatlaşdırır və sistemlərin dürüstlüyünə etibar edir. Əgər bu sistemlərdə boşluqlar aşkar edilirsə, bu, həm texniki, həm də etik etimadı zədələyir. Süni intellektin təhlükəsizliyi sadəcə proqram təminatı problemi deyil, həm də ictimai məsələdir. Çünki bir sistemin pozulması yalnız texniki məlumatların itirilməsi deyil, həm də insanların həyatına, maliyyə sabitliyinə və bəzən milli təhlükəsizliyə təsir göstərə bilər.
Belə halların qarşısını almaq üçün dünyada kibertəhlükəsizlik strategiyaları tədricən süni intellekt mərkəzli yanaşmaya keçid edir. Artıq bir çox beynəlxalq şirkətlər — “Google”, “Microsoft”, “IBM”, “Red Hat” kimi nəhənglər — “AI security governance” (Süni intellekt təhlükəsizliyi idarəetməsi) adlı ayrıca bölmələr yaradıblar. Burada məqsəd yalnız kodları qorumaq deyil, həm də süni intellektin qərarvermə prosesini izləmək, avtomatik təhlil etmək və potensial riskləri proqnozlaşdırmaqdır. Yəni kibertəhlükəsizlik də artıq süni intellekt tərəfindən qorunur.
Azərbaycanın Elektron Təhlükəsizlik Xidmətinin bu məsələ ilə bağlı xəbərdarlığı, əslində, ölkəmizdə də rəqəmsal təhlükəsizlik mədəniyyətinin dərinləşdiyini göstərir. Bu gün süni intellekt təkcə texnoloji innovasiya deyil, həm də informasiya müharibəsinin əsas sahəsinə çevrilib. Dövlət qurumlarının və özəl sektorun bu riskləri vaxtında müəyyənləşdirməsi və cavab tədbirləri görməsi milli təhlükəsizlik üçün həyati əhəmiyyət daşıyır.
Bu kimi platformalarda aşkarlanan boşluqların aradan qaldırılması təkcə proqram yeniləmələri ilə bitmir. Burada vacib olan insan faktorudur. İstifadəçilərin şüurlu davranışı, güclü parollar, çoxmərhələli autentifikasiya və müntəzəm sistem auditi kimi sadə addımlar belə böyük risklərin qarşısını ala bilər. Çünki texnologiya nə qədər inkişaf etsə də, onun arxasında duran insanın diqqətsizliyi ən böyük təhlükə olaraq qalır.
Digər tərəfdən, süni intellektin təhlükəsizlik sistemlərində istifadəsi həm qoruyucu, həm də risk yaradan tərəf daşıyır. Məsələn, “AI-driven cyber attacks” (Süni intellektlə idarə olunan kiberhücumlar) anlayışı artıq reallıqdır. Hücum edən tərəf də süni intellektdən istifadə edir — sistemləri öyrənir, zəif nöqtələri avtomatik müəyyən edir və hücumu dəqiq istiqamətləndirir. Bu isə müdafiə tərəfinin də süni intellektlə silahlanmasını zəruri edir. Yəni gələcəyin kibermüharibələri artıq insanlarla deyil, süni intellektlərlə süni intellekt arasında gedəcək.
Sonda belə bir nəticəyə gəlmək olar ki, “Red Hat OpenShift AI”da aşkar edilən boşluq yalnız texnoloji xəbər deyil — bu, süni intellekt dövrünün reallıqlarını göstərən ciddi siqnaldır. Hər bir texnoloji irəliləyiş eyni zamanda yeni risklər doğurur. İndi məsələ bu texnologiyadan imtina etməkdə deyil, onu məsuliyyətlə idarə etməkdədir. Süni intellekt gələcəyin idarəedici qüvvəsidir, lakin onun təhlükəsizliyi təmin edilməzsə, bu qüvvə nəzarətdən çıxaraq insanın öz yaratdığı ən böyük təhlükəyə çevrilə bilər. Gələcəyin cəmiyyəti texnologiyanı qoruyan, eyni zamanda ondan qorunan cəmiyyət olmalıdır.
AzNews.az