Folosirea inteligenței artificiale în planificarea vacanțelor poate genera informații complet greșite, după cum demonstrează un incident recent din Australia. Mai mulți turiști au ajuns într-o zonă izolată din Tasmania în căutarea unor izvoare termale care, în realitate, nu există, după ce au urmat recomandările unui articol realizat cu ajutorul AI și publicat pe un site de turism.
Turiști trimiși într-un loc fără atracțiile promise
Un operator turistic australian a fost nevoit să gestioneze numeroase reclamații după ce un material generat cu inteligență artificială a indicat existența unor așa-zise izvoare termale în localitatea Weldborough. Articolul, publicat pe site-ul Tasmania Tours, recomanda zona drept una dintre „cele mai bune șapte experiențe cu izvoare termale din Tasmania pentru 2026”, însă informația s-a dovedit a fi complet falsă.
Materialul a fost ulterior eliminat, însă efectele au persistat, turiștii continuând să ajungă în zonă în speranța de a descoperi atracția inexistentă, conform Digi24.
Weldborough nu a avut niciodată izvoare termale
În realitate, Weldborough nu dispune de izvoare termale. Singura sursă de apă din zonă este râul Weld, cunoscut pentru temperaturile scăzute ale apei, improprii pentru scăldat sau activități recreative. Localitatea este un fost sat minier situat în nord-estul Tasmaniei, la aproximativ 45 de kilometri de orașul St Helens.
Localnicii, martori ai confuziei turiștilor
Kristy Probert, proprietara unui pub din apropiere, a declarat pentru Australian Broadcasting Corporation (ABC) că numeroși vizitatori au ajuns în zonă în căutarea izvoarelor menționate în articol.
„Chiar acum două zile a venit un grup de 24 de șoferi care călătoreau din Australia continentală. Au făcut un ocol special pentru izvoare. Le-am spus că, dacă le găsesc, le dau bere gratis toată noaptea. Nu s-au mai întors”, a povestit aceasta.
Informații fictive amestecate cu atracții reale
Articolul problematic plasa presupusele izvoare Weldborough alături de obiective turistice reale, precum Peșterile Hastings sau Izvoarele Termale din sudul Tasmaniei. De asemenea, materialul conținea și alte erori, inclusiv menționarea localității Liaweenee, cunoscută ca una dintre cele mai reci zone din Australia, ca destinație pentru experiențe termale.
Compania recunoaște greșeala
Scott Hennessy, proprietarul companiei de turism, a explicat că activitatea de marketing fusese externalizată unei firme care utiliza inteligența artificială pentru redactarea conținutului. Deși materialele sunt, în mod normal, verificate înainte de publicare, unele articole au fost făcute publice accidental, în perioada în care acesta se afla în afara țării.
„Inteligența artificială a dat complet greș în acest caz”, a recunoscut Hennessy.
Nu este un caz singular
Situația din Tasmania nu este un incident izolat. Anul trecut, BBC a relatat mai multe exemple similare în care turiști au fost induși în eroare de informații generate de AI. Într-un caz, doi turiști din Peru au plătit aproximativ 140 de euro pentru a ajunge într-o zonă rurală izolată, în căutarea unui presupus „Canion Sacru Humantay” din Munții Anzi, care nu există.
Într-un alt incident, doi turiști care și-au planificat o drumeție în Japonia cu ajutorul ChatGPT au primit date eronate despre programul unei telecabine și au rămas blocați pe munte după lăsarea nopții.
Încredere mare în AI, riscuri pe măsură
Un sondaj realizat de o cunoscută platformă de rezervări arată că 89% dintre utilizatori intenționează să folosească inteligența artificială pentru organizarea viitoarelor călătorii. Potrivit studiului, asistenții AI sunt deja considerați mai de încredere decât bloggerii de turism sau influencerii de pe rețelele sociale.
Specialiștii avertizează însă că, pe fondul utilizării tot mai frecvente a inteligenței artificiale în industria turismului, riscul dezinformării rămâne ridicat, iar consecințele pot fi descoperite de turiști abia după ce ajung la destinație.





























Comentează