Nuk duhet ta shkruani kurrë këtë në Chat-GPT, këshillon një profesor i njohur i shkencave kompjuterike

3 Min. Leximi

Kur bëhet fjalë për Chat-GPT dhe mjete të ngjashme të IA-së, përdoruesit ndahen kryesisht në dy grupe: ata që nuk do t’i besonin kurrë asnjë fjale të saj dhe ata që e përdorin atë çdo ditë, jo vetëm për punë, por edhe për të zgjidhur dilema dhe probleme personale.

Sipas hulumtimeve të fundit dhe postimeve të shumta në rrjetet sociale, gjithnjë e më shumë njerëz po e përdorin Chat-GPT si një terapist dixhital ose si një mik të cilit i besojnë dhe kërkojnë këshilla. Por ekspertët paralajmërojnë se një qasje e tillë mund të ketë pasoja serioze.

- Advertisement -

Mike Wooldridge, një profesor i shkencave kompjuterike në Universitetin e Oksfordit, thekson se përdoruesit shpesh harrojnë se çfarë është në të vërtetë Chat-GPT dhe çfarë nuk është.

– Chat-GPT nuk ka empati. Nuk ka dhembshuri. Nuk ka përjetuar kurrë asgjë. Është një softuer i projektuar për t’ju thënë atë që doni të dëgjoni dhe asgjë më shumë. Marrëdhëniet njerëzore bazohen në mirëkuptim, përvojë dhe emocione, diçka që asnjë algoritëm nuk mund ta zëvendësojë. Prandaj, është gabim të lidheni me këto mjete sikur të ishin miq të ngushtë – paralajmëron profesori.

Italia ndalon përdorimin e “Chet-GPT”
Përtej rreziqeve emocionale, ekzistojnë edhe shqetësime për privatësinë. Kur përdoruesit ndajnë informacione të ndjeshme me mjetet e inteligjencës artificiale, nuk është gjithmonë e qartë se ku dhe si ruhen ato të dhëna, kush ka qasje në to ose si mund të përdoren ose madje të abuzohen.
Si kujtesë, në vitin 2023, Italia u bë vendi i parë perëndimor që ndaloi përdorimin e Chat-GPT për shkak të shqetësimeve në lidhje me mbrojtjen e të dhënave personale. Agjencia italiane e mbrojtjes së privatësisë deklaroi se të dhënat e përdoruesve, përfshirë përmbajtjen e bisedave dhe të dhënat e pagesave, përdoren për të trajnuar modelin, gjë që është një shkelje serioze e privatësisë.

Njerëzit nga vendet e varfra janë gjithashtu prapa progresit teknologjik. Gjatë zhvillimit të Chat-GPT, punëtorët nga Kenia dhe vende të tjera u ekspozuan ndaj përmbajtjes traumatike si dhuna, abuzimi seksual dhe fyerjet raciste për të “pastruar” të dhënat dhe për të ndihmuar në trajnimin e modelit.

- Advertisement -

Këta janë njerëz të vërtetë të cilët, për paga të ulëta, u desh të kalonin nëpër sfida të vështira emocionale në mënyrë që makina të mund të “mësonte” dhe më vonë t’u përgjigjej përdoruesve në të gjithë botën.

Inteligjenca artificiale sigurisht që mund të jetë një mjet i dobishëm, por nuk është një mik, një terapist apo një person të cilit mund t’i besohet. Mendoni me kujdes para se t’i besoni sekretet dhe problemet tuaja. Edhe pse Chat-GPT mund të “kuptojë” atë që shkruani, nuk mund të empatizojë dhe të dhënat tuaja mund të mos qëndrojnë aty ku mendoni se do të qëndrojnë.

TOP Lajmet

ETIKETUAR:
Ndani këtë artikull