Світ швидко переходить у добу штучного інтелекту, але разом із цим народжується і новий тип небезпеки — так званий «отруєний AI». Йдеться про ситуації, коли моделі машинного навчання отримують спотворені або навмисно підроблені дані, через що починають діяти неправильно.
На вигляд система працює звично, але її рішення вже не можна вважати надійними. Уявіть, що ШІ, який аналізує фінансові транзакції, починає «пропускати» шахрайські операції або медична модель неправильно інтерпретує результати аналізів. Саме це — наслідок data poisoning, тобто «отруєння даних».
Такі маніпуляції непомітні. Вони не руйнують систему, а підмінюють логіку її роботи. Експерти попереджають, що отруєні моделі можуть проникнути навіть у критичну інфраструктуру — банківські мережі, транспортні системи чи енергетику. Один помилковий алгоритм може паралізувати роботу цілих галузей.
Дослідження Кембриджського університету показує: отруєння штучного інтелекту може стати основною кіберзагрозою майбутнього. Найстрашніше, що для цього не потрібні складні віруси — достатньо змінити кілька рядків у навчальному наборі даних.
Попри ризики, науковці вже розробляють інструменти «чистого навчання», які перевіряють походження даних та виявляють приховані маніпуляції. Але навіть вони не гарантують абсолютної безпеки. Адже чим складніші алгоритми, тим менше ми розуміємо, як вони «мислять».
Штучний інтелект може бути потужним союзником або небезпечним ворогом. І питання не в самих технологіях, а в тому, як люди їх використовують. Сьогодні ми стоїмо на межі нового цифрового виклику — і лише від нас залежить, чи зможемо ми зробити ШІ безпечним для світу.
Джерело: portaltele.com.ua