Një histori e rëndë ka rikthyer në vëmendje rreziqet e përdorimit të pakontrolluar të Inteligjencës Artificiale kr bëhet fjalë për çështje shëndetësore. Një 78-vjeçar amerikan humbi jetën nga leuçemia limfatike kronike, pasi për muaj me radhë refuzoi trajtimin e rekomanduar nga mjekët, i bindur nga informacionet e marra përmes IA.

Rasti u bë publik nga djali i tij, Ben Riley, i cili tregoi se i ati ishte vetë-diagnostikuar pasi kishte përdorur platformën “Perplexity”. Sipas tij, babai ishte bindur se vuante nga një gjendje shumë e rrallë, e njohur si transformimi i Richter dhe se trajtimet kundër kancerit do ta përkeqësonin situatën.

Edhe pse onkologu i tij e kishte këshilluar vazhdimisht të niste terapinë për të ngadalësuar përparimin e sëmundjes, pacienti refuzoi. Ndërkohë, analizat mjekësore kishin përjashtuar në mënyrë të qartë diagnozën e rrallë që ai besonte se kishte.

Gjendja e tij u përkeqësua gradualisht, derisa simptomat u bënë të rënda dhe të padurueshme. Vetëm në faza shumë të avancuara ai pranoi të nisë trajtimin, por në atë moment organizmi ishte tepër i dobësuar për ta përballuar.

Sipas rrëfimit të të birit, përgjigjet e marra nga IA përmbanin referenca që dukeshin shkencore, por në realitet kishin pasaktësi dhe interpretime të gabuara. Edhe ekspertët e kontaktuar më vonë konfirmuan se informacioni nuk ishte i besueshëm.

Rasti ka ndezur sërish debatin mbi përdorimin e mjeteve si ChatGPT dhe platforma të tjera të ngjashme për çështje shëndetësore. Ekspertët paralajmërojnë se mbështetja e verbër tek IA, duke zëvendësuar konsultat me mjekë të vërtetë, mund të ketë pasoja fatale.

Pavarësisht dhimbjes, Ben Riley ka zgjedhur ta ndajë historinë për të rritur ndërgjegjësimin mbi kufizimet e inteligjencës artificiale. Ai thekson se Inteligjenca Artificiale nuk duhet të shihet si zëvendësim i mjekëve, sidomos kur bëhet fjalë për vendime jetike.