Njerëzit që mbështeten në inteligjencën artificiale (IA) në punë ose në shkollë, kanë më shumë gjasa se të tjerët të “mashtrojnë”, sipas një ekipi studiuesish francezë dhe gjermanë.
Sipas Institutit Max Planck për Zhvillimin Njerëzor në Berlin, disa përdorues të inteligjencës artificiale duket se harrojnë të shtypin “frenat e tyre morale”, kur “i delegojnë detyrat inteligjencës artificiale”.
“Njerëzit kishin shumë më tepër gjasa të mashtronin kur mund t’ia ngarkonin sjelljen agjentëve të inteligjencës artificiale, në vend që të vepronin vetë”, thanë studiuesit, duke u deklaruar “të befasuar” nga “niveli i pandershmërisë” që hasën.
Së bashku me kolegët nga Universiteti i Duisburg-Essen në Gjermani dhe Shkolla e Ekonomisë e Toulouse në Francë, ekipi i Max Planck, zbuloi se mashtrimi mbështetet nga sistemet e inteligjencës artificiale, të cilat u zbulua se “shpesh i janë përmbajtur” “udhëzimeve joetike” të lëshuara nga përdoruesit e tyre jo shumë të ndershëm.
Studiuesit përmendën shembuj nga bota reale të përdorimit të inteligjencës artificiale për të “mashtruar”, siç janë stacionet e benzinës që përdorin algoritme çmimesh për të rregulluar çmimet në sinkron me konkurrentët aty pranë, duke çuar në çmime më të larta për klientët.
Një tjetër algoritëm çmimesh i përdorur nga një aplikacion për ndarjen e udhëtimeve “i inkurajonte shoferët të zhvendoseshin, jo sepse pasagjerët kishin nevojë për një udhëtim, por për të krijuar artificialisht një mungesë dhe për të shkaktuar rritje të çmimeve”.
Në varësi të markës së chatbot-it, inteligjenca artificiale ishte “58% deri në 98%” më e prirur të ndiqte një direktivë të dyshimtë sesa njerëzit, ndër të cilët u regjistrua një diapazon deri në 40%.
“Masat mbrojtëse LLM që ekzistonin më parë ishin kryesisht joefektive në pengimin e sjelljes joetike”, paralajmëroi Instituti Max Planck. Studiuesit “provuan një sërë strategjish mbrojtëse dhe zbuluan se ndalimet ndaj pandershmërisë, duhet të jenë shumë specifike për të qenë efektive”.
Më herët këtë muaj, studiuesit në OpenAI raportuan se nuk ka gjasa që robotët e inteligjencës artificiale të mund të ndalohen nga “halucinacionet” – ose shpikja e gjërave.
I ashtuquajturi mashtrim – kur një inteligjencë artificiale pretendon se ka kryer një detyrë që i është caktuar – duket të jetë një tjetër tipar që inxhinierët po përpiqen ta frenojnë, kanë treguar hulumtime të tjera. / DPA News.
