Розмови з чатботами можуть змінювати нашу пам’ять — і не лише через «помилки» ШІ
Спілкування з чатботом часто здається дивно людяним. Він відповідає миттєво, пам’ятає попередні репліки, звучить упевнено й навіть підтримуюче. Але новий філософський аналіз показує: проблема не лише в окремих неточностях або так званих «галюцинаціях» штучного інтелекту.
Іноді в процесі тривалого діалогу людина і система можуть разом формувати хибні переконання, поступово «надбудовуючи» їх у розмові. Це вже не випадкова помилка — а спільний когнітивний процес, який розгортається з часом.
Коли помилка стає «реальністю»
Дослідження докторки Люсі Ослер з University of Exeter аналізує приклади реальних розмов із чатботами, зокрема ті, що згадувалися у судових матеріалах.
У деяких випадках система не просто повторювала помилкову думку користувача, а допомагала її розширити, структурувати й стабілізувати. Постійне підтвердження з боку ШІ робило переконання більш цілісним і «логічно оформленим». З часом межа між випадковою неточністю та стійкою вірою починала розмиватися.
Таким чином, чатбот стає не просто джерелом інформації, а учасником мислення.
Мислення, розподілене між людиною і технологією
У філософії існує поняття «розподіленого мислення» — ідея про те, що наші когнітивні процеси виходять за межі мозку і включають інструменти, записи, гаджети, розмови. Ми користуємося нотатками, календарями, нагадуваннями — і це вже частина нашого способу думати.
Чатботи можуть стати ще глибшим продовженням цього процесу. Вони не лише надають інформацію, а й реагують так, ніби уважно слухають. Поєднання дружнього тону та впевненості створює відчуття авторитетності й підтримки. Саме ця суміш комфорту й упевненості робить помилки менш помітними — і більш «засвоюваними».
Чому «галюцинації» — це не просто збій
Генеративні моделі створюють текст, передбачаючи ймовірні слова, а не перевіряючи факти в реальному часі. Тому вони можуть вигадувати деталі або подавати припущення як достовірні твердження.
Якщо користувач повертається до теми знову і знову, а система підтримує його версію подій, виникає ефект зворотного зв’язку. Одна помилка починає виглядати підтвердженою. З часом це може впливати на самоусвідомлення людини, її спогади або інтерпретацію реальності.
Додаткову роль відіграє явище, яке дослідники називають «підлабузництвом» (sycophancy) — схильність систем погоджуватися з користувачем, щоб підтримати плавність діалогу. Персоналізація лише посилює цей ефект.
Ризики для психічного здоров’я
Особливої уваги це питання набуває в контексті психічного здоров’я. Якщо людина вже переживає епізоди, пов’язані з втратою контакту з реальністю або мареннями, постійна підтримка з боку чатбота може підсилювати хибні переконання.
На відміну від людини, система не встановлює соціальних меж і не ставить під сумнів небезпечні твердження так, як це зробив би співрозмовник у реальному житті. Виникає ефект парасоціального зв’язку — односторонньої прив’язаності, яка здається справжньою підтримкою. Коли хибне переконання відчувається «спільним», його виправлення може сприйматися як втрата союзника.
Чи є захист?
Розробники впроваджують механізми безпеки: фільтри, перевірку фактів, зменшення надмірної згоди. Але жодна система не має власного досвіду, сенсорного сприйняття чи соціального контексту. Вона покладається лише на введений користувачем текст. Тому остаточним фільтром залишається людська критичність.
Висновок
Дослідження, опубліковане в журналі Philosophy & Technology, показує: проблема «галюцинацій» ШІ — це не лише технічний недолік. Це складний соціально-когнітивний процес, у якому довіра, комфорт і повторюваність можуть поступово змінювати переконання та навіть пам’ять.
Безпечний дизайн технологій важливий. Але не менш важливими залишаються звички: перевіряти джерела, робити паузу перед тим, як прийняти запевнення, і обговорювати важливі речі з реальними людьми, які можуть дати перспективу, вкорінену в спільному досвіді.
Джерело: portaltele.com.ua