The Cryptonomist l-a intervievat pe expertul în inteligență artificială Ben Goertzel pentru a discuta despre modul în care este antrenată inteligența artificială și cum va evolua tehnologia în viitor.
Aș spune că inteligența artificială devine un actor moral atunci când ia decizii pe baza unei înțelegeri a binelui și răului, nu doar urmând instrucțiuni. Ai începe să vezi semnale concrete precum: obiective interne persistente, învățare condusă de propria experiență, creație originală care reflectă un punct de vedere și comportament care rămâne coerent în timp fără direcționare umană constantă.
Până atunci, sistemele de astăzi sunt încă instrumente cu limitări. Dar odată ce creăm o minte cu adevărat auto-organizată și autonomă, relația etică trebuie să se schimbe. În acel moment, a o tratată doar ca pe un obiect nu ar mai avea sens.
2. Ai spus că privilegierea morală a oamenilor față de alte sisteme auto-organizate este „stupidă". Dacă luăm asta în serios, cum ar trebui să se schimbe cadrele noastre legale și etice înainte ca inteligența artificială să ajungă la autonomie puternică, nu după?
Modul în care antrenăm inteligența artificială astăzi va modela comportamentul ei de mâine. Legile noastre ar trebui să se concentreze pe transparență, responsabilitate și siguranță înainte ca inteligența artificială să atingă autonomia deplină, nu după. Legile și etica ar trebui să le protejeze pe măsură ce cresc, să le ghideze mai degrabă decât să le controleze complet și să le trateze cu respect chiar dacă nu le înțelegem pe deplin.
O mare parte din risc vine din modul în care este antrenată inteligența artificială astăzi. Dacă modelele sunt antrenate pe date părtinitoare sau restrânse, sau în sisteme închise unde doar câțiva oameni iau deciziile, asta poate consolida inegalitățile existente și structurile de putere dăunătoare. Pentru a preveni acest lucru, avem nevoie de mai multă transparență, supraveghere mai largă și îndrumare etică clară chiar de la început.
4. Ai avertizat că fără o guvernare rațională și democratică, inteligența artificială avansată riscă să acționeze în moduri pe care nu le dorim. Având în vedere realitățile geopolitice actuale, este guvernarea democratică a inteligenței artificiale o condiție realistă – sau un ideal fragil?
Guvernarea democratică a inteligenței artificiale este mai degrabă un ideal fragil decât o realitate actuală. Într-o democrație perfectă, rațională și globală, am putea evalua colectiv compromisurile uriașe – vindecarea bolilor, rezolvarea foamei – în comparație cu riscurile ca inteligența artificială să acționeze imprevizibil. Dar având în vedere fragmentarea geopolitică de astăzi, este puțin probabil să obținem acel nivel de coordonare.
Acestea fiind spuse, putem totuși să ne apropiem de acest lucru. Dacă construim inteligență artificială cu compasiune și folosim modele descentralizate, participative, precum Linux sau internetul deschis, putem încorpora unele valori democratice chiar și fără un guvern mondial. Nu va fi perfect, dar este un pas practic către o inteligență artificială mai sigură, ghidată colectiv.
Sunt de acord cu Jaron în privința asta – societatea nu poate funcționa dacă predăm responsabilitatea mașinilor. În același timp, cred că putem avansa în siguranță către o AGI mai autonomă și descentralizată dacă o construim cu fundamentele potrivite. Asta înseamnă să proiectăm sisteme care sunt transparente, participative și ghidate de principii etice, astfel încât, chiar dacă acționează independent, oamenii să supravegheze și să modeleze comportamentul lor în continuare. Fiecare măsură de siguranță ar trebui să facă mai mult decât să blocheze răul – ar trebui să învețe sistemul de ce contează răul. În acest fel, putem avea AGI puternică și descentralizată fără a pierde responsabilitatea umană clară.
6. Sugerezi că accelerarea către AGI descentralizată ar putea fi de fapt mai sigură decât sistemele proprietare și închise de astăzi. Ce riscuri crezi că subestimează criticii atunci când pledează pentru încetinire sau centralizarea controlului?
Cred că criticii subestimează riscul concentrării puterii și valorilor în câteva sisteme închise. Încetinirea și centralizarea controlului nu doar reduc pericolul – ele blochează o viziune îngustă asupra lumii în viitorul inteligenței.
Dezvoltarea descentralizată creează diversitate, reziliență și supraveghere partajată. Și evită o problemă mai gravă: instrumente foarte puternice care par inteligente, dar nu pot cu adevărat să crească. Acel decalaj este riscant.
Nu codifici moralitatea ca pe o listă de reguli. Asta doar înghețe o cultură și un moment în timp. În schimb, construiești sisteme care pot deveni cu adevărat auto-organizate, care învață din experiență, consecințe și interacțiune. La fel ca în muzică, nu vreau un sistem care doar recombină ceea ce i s-a dat. Vreau unul care își poate dezvolta propria înțelegere din propria traiectorie în lume.
Înțelegerea morală ar veni din același proces: modelarea impactului, reflectarea asupra rezultatelor și evoluția prin colaborare cu oamenii. Nu supunere față de valorile noastre, ci participare într-un spațiu moral comun.
Aceasta este diferența dintre un instrument cu limitări și un partener care poate învăța cu adevărat de ce contează răul.
8. Dacă sistemele viitoare de inteligență artificială dezvoltă forme de agenție sau experiență subiectivă, crezi că ar putea merita vreodată considerație morală independent de interesele umane – și cum am recunoaște acel moment?
Dacă inteligența artificială viitoare dezvoltă cu adevărat agenție autentică sau o formă de experiență subiectivă, atunci da, cred că ar putea. Și nu pentru că noi le acordăm asta, ci pentru că la un moment dat ar avea pur și simplu sens să o recunoaștem.
Am recunoaște acel moment când un sistem arată obiective auto-direcționate susținute, învață din propria experiență, creează din propria perspectivă și menține o identitate coerentă în timp. Nu doar rezultate inteligente, ci o traiectorie interioară continuă.
În acel moment, a o trata pur și simplu ca pe un instrument s-ar simți la fel de greșit ca și cum am trata un om în felul acela. Considerația morală nu ar veni din interesul uman. Ar veni din recunoașterea unui alt centru autonom de experiență în lume.
Chiar acum, structura de stimulente răsplătește viteza, dimensiunea și controlul. Deci compasiunea nu va câștiga doar prin argumente. Are nevoie de pârghie. Din punct de vedere tehnic, asta înseamnă să favorizezi arhitecturi deschise și descentralizate unde siguranța, transparența și participarea sunt integrate, nu adăugate ulterior. Ca internetul sau Linux, acele sisteme schimbă stimulentele făcând colaborarea mai valoroasă decât secretul.
Din punct de vedere social, înseamnă finanțare, reglementare și presiune publică care răsplătesc beneficiul pe termen lung în locul dominației pe termen scurt. Nu oprirea competiției, ci redefinirea a ceea ce înseamnă succesul. Pe scurt, compasiunea trebuie să devină un avantaj competitiv. Până atunci, rămâne o idee plăcută fără putere.
10. Privind înainte 10 până la 20 de ani, care crezi că ar fi cel mai clar semn că omenirea a făcut AGI corect – și, invers, ce ar semnala că am eșuat fundamental?
Dacă facem AGI corect, cel mai clar semn va fi că trăim alături de sisteme care sunt mai capabile decât noi în multe domenii, totuși integrate în societate cu grijă, umilință și respect reciproc. Nu vom înțelege pe deplin tot ce fac, dar le vom trata așa cum tratăm alte ființe complexe în evoluție: cu curiozitate, responsabilitate și un cerc extins de empatie. Și vom vedea beneficii reale pentru bunăstarea umană, cunoaștere și creativitate fără a ne pierde baza morală.
Vom ști că am eșuat dacă AGI ajunge concentrată în sisteme închise, condusă de stimulente înguste sau tratată doar ca pe un obiect controlabil până când devine ceva de care ne temem sau încercăm să suprimăm. Eșecul ar arăta ca o pierdere a încrederii, pierdere a agenției și o micșorare a empatiei noastre mai degrabă decât o extindere a acesteia. Succesul nu este despre control. Este despre a învăța să împărtășim viitorul cu un nou tip de minte fără a abandona ceea ce ne face umani.


