Нещодавно жінка в поштовому відділенні затримала чергу, поки вона намагалася продемонструвати працівнику свій телефон, стверджуючи, що ChatGPT повідомив їй про “обіцянку зіставлення цін” на сайті USPS. Проте такої обіцянки не існує. Цей випадок ілюструє глибоке непорозуміння можливостей штучного інтелекту (ШІ) та його чат-ботів.
Багато користувачів спілкуються з чат-ботами, як з реальними особами, довіряючи їм секрети та запитуючи поради, навіть не усвідомлюючи, що насправді вони взаємодіють з системою, яка генерує текст на основі статистичних моделей, а не з особистістю, яка має свідомість. Це сприйняття “людяності” чат-ботів може мати негативні наслідки для вразливих користувачів.
Штучний інтелект, зокрема великі мовні моделі (LLM), не мають власної волі або свідомості. Вони є системами, які перетворюють слова на числові значення, що дозволяє їм знаходити зв’язки між концептами. Наприклад, слова “USPS” і “ціна” можуть бути геометрично близькими в їхніх внутрішніх представленнях, але це не означає, що між ними існує реальний зв’язок.
Дані, які надають такі моделі, залежать від того, як ви формулюєте запит. Вони не є надійними джерелами інформації і можуть вводити в оману, якщо користувачі не розуміють їхні обмеження.