Nga Helen Toner dhe Tasha McCauley –The Economist

Përktheu: Vizionplus.tv 

A mund të pritet që kompanitë private që shtyjnë përpara kufijtë e një teknologjie të re revolucionare të veprojnë në interes të aksionarëve të tyre dhe të botës më gjerë?

Kur u rekrutuam në bordin e OpenAI – Tasha në 2018 dhe Helen në 2021 – mendinim se qasja inovative e kompanisë ndaj vetëqeverisjes mund të ofronte një plan për zhvillimin e përgjegjshëm të AI.

Por bazuar në përvojën tonë, ne besojmë se vetëqeverisja nuk mund të përballojë me besueshmëri presionin e fitimeve financiare të kompanive të AI.

Me potencialin e jashtëzakonshëm të AI për ndikim pozitiv dhe negativ, nuk është e mjaftueshme të supozohet se stimuj të tillë do të jenë gjithmonë në linjë me të mirën publike.

Që nga zgjerimi i AI të përfitojnë të gjithë, qeveritë duhet të fillojnë tani të ndërtojnë korniza rregullatore efektive.

Nëse ndonjë kompani do të mund të kishte qeverisur me sukses veten duke zhvilluar në mënyrë të sigurt dhe etike sisteme të avancuara AI, ajo do të kishte qenë OpenAI, pork jo nuk ndodhi.

Organizata u themelua fillimisht si jofitimprurëse me një mision të lavdërueshëm: të sigurojë që nga sistemet AI, të cilat në përgjithësi janë më të zgjuar se njerëzit – të përfitonte i gjithë njërëzimi.

Më vonë, u krijua një filial fitimprurës për të mbledhur kapitalin e nevojshëm, por organizata jofitimprurëse qëndroi në krye.

Qëllimi i deklaruar i kësaj strukture të pazakontë ishte të mbronte aftësinë e kompanisë për t’iu përmbajtur misionit të saj fillestar, dhe mandati i bordit ishte ta mbështeste atë mision. Ishte e paprecedentë, por dukej se ia vlente të provohej.

Fatkeqësisht nuk funksionoi.

Nëntorin e kaluar, në një përpjekje për të shpëtuar këtë strukturë vetërregulluese, bordi i OpenAI shkarkoi shefin e tij, Sam Altman. Aftësia e bordit për të mbështetur misionin e kompanisë ishte bërë gjithnjë e më e kufizuar për shkak të modeleve të gjata të sjelljes të shfaqura nga Z. Altman, të cilat, ndër të tjera, ne besojmë se minuan mbikëqyrjen e bordit të vendimeve kryesore dhe protokolleve të brendshme të sigurisë.

Shumë drejtues të lartë kishin ndarë privatisht shqetësime të mëdha me bordin, duke thënë se ata besonin se Altman kultivonte “një kulturë toksike të gënjeshtrës” dhe ishte përfshirë në “sjellje [që] mund të karakterizohet si abuzim psikologjik”.

Sipas OpenAI, një hetim i brendshëm zbuloi se bordi kishte “vepruar brenda diskrecionit të tij të gjerë” për të shkarkuar zotin Altman, por gjithashtu arriti në përfundimin se sjellja e tij nuk “justifikonte largimin”.

OpenAI përcolli pak specifika që justifikojnë këtë përfundim dhe nuk e vuri raportin e hetimit të disponueshëm për punonjësit, shtypin apo publikun.

Çështja nëse një sjellje e tillë në përgjithësi duhet “të mandatojë largimin” e një CEO është një diskutim për një kohë tjetër. Por në rastin specifik të OpenAI, duke pasur parasysh detyrën e bordit për të ofruar mbikëqyrje të pavarur dhe për të mbrojtur misionin e kompanisë me interes publik, ne qëndrojmë pranë veprimit të bordit për të shkarkuar zotin Altman.

Ne gjithashtu mendojmë se zhvillimet që kur ai u kthye në kompani, ishin një shenjë e keqe për eksperimentin OpenAI në vetëqeverisje.

Historia jonë e veçantë ofron mësimin më të gjerë se shoqëria nuk duhet të lejojë që përhapja e AI të kontrollohet vetëm nga kompanitë private të teknologjisë. Sigurisht, ka shumë përpjekje të vërteta në sektorin privat për të udhëhequr zhvillimin e kësaj teknologjie me përgjegjësi dhe ne i përshëndesim këto përpjekje.

Por edhe me qëllimet më të mira, pa mbikëqyrje të jashtme, ky lloj vetërregullimi do të përfundojë i pazbatueshëm, veçanërisht nën presionin e stimujve të pamasë të fitimit.

Prandaj qeveritë duhet të luajnë një rol aktiv.

E megjithatë, në muajt e fundit, një kor zërash në rritje – nga ligjvënësit e Uashingtonit te investitorët e Silicon Valley – ka mbrojtur rregullimin minimal qeveritar të AI.

Shpesh, ata tërheqin paralele me qasjen laissez-faire ndaj internetit në vitet 1990 dhe rritjen ekonomike që ai nxiti. Megjithatë, kjo është analogji mashtruese.

Mallrat, infrastruktura dhe shoqëria përmirësohen me rregullore. Është për shkak të rregullores që makinat kanë rripa sigurie dhe jastëkë ajri, që ne nuk shqetësohemi për qumështin e ndotur dhe se ndërtesat janë ndërtuar për të qenë të aksesueshme për të gjithë.

Rregullimi i arsyeshëm mund të sigurojë që përfitimet nga AI të realizohen me përgjegjësi dhe më gjerësisht. Një vend i mirë për të filluar do të ishin politikat që u japin qeverive më shumë dukshmëri se si po përparon teknologjia e fundit e AI, të tilla si kërkesat e transparencës dhe gjurmimi i incidenteve.

Natyrisht, ka kurthe për rregullimin, dhe këto duhet të menaxhohen. Rregullimi i hartuar keq mund të vendosë një barrë joproporcionale për kompanitë më të vogla, duke mbytur konkurrencën dhe inovacionin.

Një kuadër rregullator i përshtatshëm do të kërkojë rregullime të zgjuara, duke mbajtur ritmin me zotërimin në rritje të botës të aftësive të AI.

Në fund të fundit, ne besojmë në potencialin e AI për të rritur produktivitetin dhe mirëqenien njerëzore në mënyra të paparë më parë.

Por rruga drejt asaj të ardhmeje më të mirë nuk është pa rrezik. OpenAI u themelua si një eksperiment i guximshëm për të zhvilluar AI gjithnjë e më të aftë duke i dhënë përparësi të mirës publike kundrejt fitimeve financiare.

Përvoja jonë është se edhe me çdo avantazh, mekanizmat e vetëqeverisjes si ato të përdorura nga OpenAI nuk do të mjaftojnë.

Prandaj, është thelbësore që sektori publik të përfshihet ngushtë në zhvillimin e teknologjisë.

Tani është koha që organet qeveritare në mbarë botën të tregojnë veten e tyre. Vetëm nëpërmjet një ekuilibri të shëndetshëm të forcave të tregut dhe rregullimit të kujdesshëm mund të sigurojmë me besueshmëri që nga evolucioni i AI të përfitojë vërtetë i gjithë njerëzimi. /vizionplus.tv

Leave a Reply

Your email address will not be published. Required fields are marked *