Чому планування подорожей із ChatGPT чи Gemini небезпечне

Абстрактний малюнок у чорно-зелених тонах - фігура людини з валізою стоїть біля схематичної мапи світу

Автор фото, Serenity Strull

    • Author, Лін Браун
    • Role, BBC Travel

Уявне місто в Перу та Ейфелева вежа в Пекіні: мандрівники дедалі частіше використовують інструменти на кшталт ChatGPT для пошуку ідей для маршрутів – і потрапляють у місця, яких насправді не існує.

Мігель Анхель Гонгора Меса, засновник і директор Evolution Treks Peru, перебував у сільському перуанському містечку, готуючись до походу в Андах, коли почув цікаву розмову. Двоє туристів без супроводу обговорювали свої плани вирушити самостійно в гори до "Священного каньйону Хумантая".

"Вони показали мені скриншот, упевнено написаний і сповнений яскравих прикметників - але це була неправда. Ніякого Священного каньйону Хумантая не існує!" – каже Гонгора Меса.

"Ця назва є поєднанням двох різних місць, які не мають жодного стосунку до опису. Турист заплатив майже 160 доларів, щоб дістатися сільської дороги поблизу Моллепати без гіда і навіть без справжнього пункту призначення", - додає він.

Більше того, Гонгора Меса твердить, що ця, здавалося б, невинна помилка могла коштувати цим мандрівникам життя.

"Такі хибні дані небезпечні в Перу, – пояснює він. – Висота, кліматичні зміни та доступність маршрутів мають бути ретельно прораховані. Коли ви користуєтесь програмою на кшталт ChatGPT, яка поєднує картинки й назви, створюючи вигадку, ви можете опинитися на висоті 4000 м без кисню і без телефонного сигналу".

Лише за кілька років інструменти штучного інтелекту (ШІ), такі як ChatGPT, Microsoft Copilot і Google Gemini, пройшли шлях від простої новинки до невід'ємної частини планування подорожей для мільйонів людей.

Згідно з одним опитуванням, 30% міжнародних туристів уже використовують генеративні інструменти ШІ та спеціальні сайти для подорожей, такі як Wonderplan і Layla, щоб організувати свої поїздки.

Хоча ці програми можуть бути корисними, коли працюють правильно, вони також здатні завести людей у неприємні або навіть небезпечні ситуації, якщо дають збій.

Дехто з мандрівників усвідомлює це, коли прибуває до свого нібито пункту призначення і з'ясовує, що їх спрямували у місце, яке існує лише у вбудованій уяві робота.

Дана Яо та її чоловік нещодавно зіткнулися з цим особисто. Подружжя скористалося ChatGPT, щоб спланувати романтичний похід на вершину гори Місен на японському острові Іцукусіма цього року.

Після прогулянки містечком Міядзіма без жодних проблем вони вирушили о 15:00 на вершину гори, щоб зустріти захід сонця – точно так, як їм порадила програма.

"Ось тоді й виникла проблема, – каже Яо, авторка блогу про подорожі Японією. – Коли ми були готові спускатися канатною дорогою. ChatGPT сказав, що останній рейс униз був о 17:30, але насправді канатна дорога вже була зачинена. Тож ми застрягли на вершині гори".

Дві жінки дивляться в екран смартфона, видно тільки їхні тулуби

Автор фото, Getty Images

Підпис до фото, Штучний інтелект часто надає мандрівникам неточну та неправдиву інформацію. Іноді він навіть повністю вигадує напрямки
Пропустити Viber і продовжити
Як дізнатися головне про Україну та світ?

Стежте за BBC News Україна у Viber!

Підписуйтеся на канал тут!

Кінець Viber

Раніше BBC вже писала про те, що Layla певний час казала користувачам про існування Ейфелевої вежі в Пекіні та порадила британському мандрівнику маршрут марафону північчю Італії, який був абсолютно нереалістичним.

"Маршрути не мали великого сенсу, – казав мандрівник. – Ми витратили б більше часу на транспорт, ніж на що-небудь інше".

Згідно з опитуванням 2024 року, 37% опитаних, які використовували ШІ для планування подорожей, заявили, що він не може надати достатньо інформації, а близько 33% сказали, що рекомендації, згенеровані ШІ, містили неправдиві дані.

Ці проблеми походять від способу, у який ШІ генерує відповіді. За словами Рейдіда Гані, почесного професора машинного навчання в Університеті Карнегі-Мелон, хоча поради програм на кшталт ChatGPT можуть здаватися раціональними й корисними, спосіб, у який вони отримують цю інформацію, означає, що ніколи не можна бути повністю впевненим, чи говорять вони правду.

"Він не знає різниці між туристичною порадою, маршрутом чи рецептом, – сказав Гані. – Він просто знає слова. Тому продовжує видавати слова, які роблять його відповідь схожою на правдоподібну, і саме в цьому криється багато проблем".

Великі мовні моделі, такі як ChatGPT, працюють, аналізуючи величезні масиви текстів і комбінуючи слова й фрази, які статистично виглядають доречними.

Іноді це дає абсолютно точну інформацію. В інших випадках виникає те, що фахівці зі штучного інтелекту називають "галюцинацією", коли інструмент просто вигадує.

Але оскільки програми ШІ подають свої вигадки й фактичні відповіді однаковим чином, користувачам часто важко відрізнити, де правда, а де ні.

У випадку зі "Священним каньйоном Хумантая" Гані вважає, що програма ШІ, ймовірно, просто поєднала кілька слів, які видалися доречними для цього регіону.

Так само аналіз усього цього масиву даних не обов'язково дає інструменту на кшталт ChatGPT корисне розуміння фізичного світу. Він може легко сплутати неквапливу прогулянку містом на відстань 4000 м із підйомом на 4000 м угору схилом гори – і це вже не кажучи про проблему справжньої дезінформації.

Мапа, у які увіткнута синя шпилька

Автор фото, Getty Images

Підпис до фото, Кілька країн розробили правила щодо штучного інтелекту, які допоможуть виявляти дезінформацію до того, як вона стане вірусною

У нещодавній статті Fast Company був описаний випадок, коли пара вирушила в похід до мальовничої канатної дороги в Малайзії, яку вони побачили в TikTok, лише щоб з'ясувати, що такої споруди не існує.

Відео, яке вони переглянули, було повністю згенероване штучним інтелектом – або для того, щоб набрати перегляди, або з якоюсь іншою дивною метою.

Такі інциденти є частиною ширшої тенденції використання ШІ, яке може непомітно – або й цілком явно – змінювати наше уявлення про світ.

Новий приклад з'явився у серпні, коли блогери з'ясували, що YouTube без їхнього дозволу використовував ШІ для "редагування" їхніх відео, змінюючи такі деталі, як одяг, волосся чи обличчя реальних людей.

На початку 2025 року у скандалі через використання ШІ опинився Netflix: спроби "переробити" старі ситкоми призвели до сюрреалістичних викривлень облич улюблених телезірок 1980–1990-х років.

Оскільки ШІ дедалі ширше використовується для внесення подібних дрібних змін без нашого відома, межа між реальністю та відполірованим уявним світом, створеним штучним інтелектом, може почати розмиватися і для мандрівників.

Хав'єр Лабурт, ліцензований клінічний психотерапевт і прихильник ідеї про те, що подорожі допомагають покращити психічне здоров'я та відчуття зв'язку зі світом, хвилюється, що поширення таких проблем може нівелювати переваги, які дають подорожі.

Він вважає, що подорож дає людям унікальну можливість поспілкуватися з тими, кого вони інакше ніколи б не зустріли, і на власні очі дізнатися про інші культури – усе це може розвивати емпатію та розуміння.

Але коли галюцинації ШІ підсовують користувачам неправдиву інформацію, це створює хибний наратив про місце ще до того, як мандрівники залишать свій дім.

Зараз роблять спроби врегулювати те, як ШІ подає інформацію користувачам, зокрема є кілька пропозицій від ЄС і США щодо впровадження водяних знаків або інших маркерів, щоб користувачі знали, коли щось було змінене або згенероване ШІ.

Але, за словами Гані, це нерівний бій: "Є багато роботи, пов'язаної з дезінформацією: як її виявляти? Як допомогти людям її розпізнати? Але сьогодні більш надійним рішенням є пом'якшення наслідків, а не запобігання".

Якщо такі регуляції таки ухвалять, мандрівникам стане простіше розпізнавати згенеровані ШІ зображення чи відео. Але нові правила навряд чи допоможуть, якщо чат-бот вигадує щось у процесі розмови.

Експерти, зокрема генеральний директор Google Сундар Пічаї, заявляють, що галюцинації можуть бути "невід'ємною рисою" великих мовних моделей, як-от ChatGPT чи Gemini від Google. Тобто якщо ви користуєтесь ШІ, єдиний спосіб захистити себе – залишатися пильним.

Одна з порад Гані – формулювати свої запити максимально конкретно й перевіряти абсолютно все. Водночас він визнає, що подорожі створюють особливу проблему для такого підходу, адже мандрівники часто запитують про місця, з якими вони незнайомі.

Але якщо інструмент ШІ дає пораду, яка звучить занадто ідеально, перевірте її ще раз. Зрештою, каже Гані, час, витрачений на перевірку інформації від ШІ, у деяких випадках може зробити процес не менш виснажливим, ніж планування "по-старому".

Для Лабурта ключем до вдалих подорожей – із ШІ чи без нього – є відкритість і вміння адаптуватися, коли щось іде не так.

"Спробуйте перемкнутися з розчарування від того, що вас ошукали, – радить він. – Якщо ви вже там, то як можна обернути ситуацію на краще? Адже ви все одно у класній подорожі, чи не так?"

Підписуйтеся на нас у соцмережах