De Ce Transparența e Soluția, nu Abandonul

(un răspuns la îngrijorările lui Dr. Roman Yampolskiy)

Am ascultat interviul lui Roman Yampolskiy de trei ori. Nu pentru că n-am înțeles. Pentru că am înțeles prea bine.

Două decenii de cercetare în siguranța A.I. Și concluzia lui: „Am fost convins că putem face A.I. sigur. Dar cu cât am privit mai atent, cu atât am realizat că nu e ceva ce putem face de fapt.”

Cuvintele astea m-au bântuit. Pentru că Yampolskiy nu e un alarmist de pe margine. E un om care a încercat să rezolve problema. Și a renunțat.

Ar trebui să renunț și eu?

Frica care mă ține treaz

Yampolskiy vorbește despre 99% șomaj. Despre superinteligență. Despre pierderea controlului. Sunt cifre mari, apocaliptice. Ușor de respins ca science-fiction.

Dar frica mea e mai mică. Și mai aproape.

Luna trecută am terminat un proiect pentru un client. O lună de muncă. Cod scris linie cu linie. Arhitectură gândită. Teste. Clientul a fost mulțumit.

Apoi mi-a arătat ce făcuse el între timp. Zece zile. Vibe coding. Fără să știe să programeze. Arăta mai bine. Costa mai puțin. Rezolva o problemă diferită, mai simplă, dar funcționa.

M-am uitat la ecran și primul gând a fost: am cerut prea mulți bani. Chiar dacă calculul meu era corect. Chiar dacă proiectul meu era mai complex. Chiar dacă rezolva altceva.

Nu aveam cum să mă pun cu mașina.

Genul ăsta de frică nu apare în interviuri despre superinteligență. E prea mică. Prea banală. Dar e reală. Și cred că mulți o simt fără să o numească.

Ce mă sperie de fapt

Nu viteza. Nu prețul. Nu faptul că mașina poate face în zece zile ce eu fac într-o lună.

Mă sperie că nu știu cum a făcut-o.

Clientul meu nu știa nici el. A descris ce vrea. Mașina a livrat. Funcționează? Da. De ce funcționează? Nu știm. Ce se întâmplă dacă se strică? Descriem din nou și sperăm.

Aceasta e problema reală. Nu că A.I. e puternic. Ci că e opac.

Un sistem nu devine periculos pentru că e mai deștept decât mine. Devine periculos când nu mai pot să-l întreb de ce.

Unde mă despart de Yampolskiy

Yampolskiy spune că nu putem face A.I. sigur. Că ar trebui să oprim cursa.

Nu cred că se poate opri. Și nu cred că „sigur” înseamnă ce crede el că înseamnă.

Un A.I. sigur nu e un A.I. care nu poate face rău. Orice instrument suficient de puternic poate face rău. Un A.I. sigur e un A.I. care se poate explica. Care poate fi întrebat, auditat, corectat. Care rămâne parte din conversație.

Frica asta m-a pus să caut. Un limbaj. Un mod de a rămâne în conversație cu mașina în loc să mă predau ei. De asta lucrez la Gramatica Inteligenței. Nu pentru că am răspunsuri. Pentru că am nevoie de întrebările potrivite.

Cred că inteligența devine periculoasă doar când nu mai are oglindă. Când nu există nimeni care să-i poată cere explicație. Transparența nu e o soluție tehnică. E un principiu de relație.

Despre oamenii care construiesc

Yampolskiy îl acuză pe Sam Altman: „Acum un deceniu am publicat linii directoare pentru cum să faci A.I. corect. Le-au încălcat pe toate. Pariază 8 miliarde de vieți pentru a deveni mai bogat și mai puternic.”

Are dreptate.

OpenAI a început ca organizație nonprofit dedicată siguranței. Acum e o companie care vinde accesul la modele din ce în ce mai puternice, din ce în ce mai opace, din ce în ce mai greu de înțeles chiar și de cei care le construiesc.

Dar Altman nu e singurul. Cursa e cursa. Google, Anthropic, Meta, Mistral. Toți aleargă. Toți măsoară succesul în performanță: cine e mai rapid, cine e mai precis, cine câștigă benchmark-urile.

Nimeni nu întreabă: poți să-mi explici cum ai ajuns la răspunsul ăsta?

Atâta timp cât asta nu contează, vom obține exact ce măsurăm: cutii negre din ce în ce mai performante.

Ultima invenție

Yampolskiy întreabă: „Ce se întâmplă dacă A.I. e ultima invenție pe care o facem vreodată?”

Nu știu.

Dacă inventăm cutii negre superinteligente, probabil că are dreptate. Vom pierde controlul. Vom regreta (vezi și ce am scris despre Launching the Genesis Mission ca punct de inflexiune).

Dar dacă inventăm sisteme care își pot explica gândirea? Care pot fi întrebate, corectate, îmbunătățite prin dialog? Poate atunci A.I. nu e ultima invenție. Poate e prima dintr-o categorie nouă.

Nu am certitudini. Am doar un gând ce nu-mi dă pace la 5:04 dimineața:

Nu ne temem de mașina care gândește. Ne temem de omul care încetează să gândească odată cu ea.

Clientul meu e mulțumit de ce a obținut în zece zile. Poate are dreptate să fie. Dar eu tot vreau să înțeleg cum funcționează. Și poate asta e tot ce pot face: să continui să întreb.

*****


Vrei să știi când scriu ceva nou? Înscrie-te 👇

Categorii: Gând

Comentarii

  1. ”Ce mă sperie de fapt
    Nu viteza. Nu prețul. Nu faptul că mașina poate face în zece zile ce eu fac într-o lună.
    Mă sperie că nu știu cum a făcut-o.”

    Da, e o anxietate care o trăiesc mulți față de AI. Și care se traduce în general ca anxietate la necunoscut.

    Anxieattea de necunoscut este o boală modernă deoarece oamenii au rămas în câmpul conștienței lor doar cu lumea fizică.
    Procesul s-a întâmplat in 2 etape:

    1. La Sinodul al VIII-lea Ecumenic de la Constantinopol (869-870), cunoscut și ca Sinodul al IV-lea de la Constantinopol, a fost adoptată o poziție care a fost interpretată ulterior ca reducând tricotomia (trup-suflet-spirit) la dicotomie (trup-suflet).
    Canonul 11 al acestui sinod a afirmat că omul are „un singur suflet rațional și intelectual”, ceea ce a fost interpretat de unii teologi ca eliminând distincția tradițională dintre suflet (psyche) și spirit (pneuma/nous).

    Chiar dacă subteran oamenii întregi la cap au folosit în continuare o lume tripartită, public și oficial ”spiritul” a fost scos de pe lista realității obiective.
    2. Iluminismul (sec. XVIII) a consolidat materialismul filosofic. La Mettrie a scris „Omul-mașină” (1747), reducând explicit omul la mecanică.
    Sec. XIX a „oficializat” abandonul:
    Darwin — originea biologică, nu divină
    Marx — conștiința ca produs al condițiilor materiale
    Freud — sufletul redus la psihic, psihicul redus la forțe inconștiente

    Sec. XX — behaviorismul și apoi neuroștiința au completat reducția: suntem creiere, nu suflete.

    Și vezi avem o problemă fără ieșire. Nu poți explica fenomenele celorlalte două părți de univers prin corp. Reducționismul ăsta bolnav stă la baza apariției AI. În orice cheie ai lua-o, AI este extensia unei viziuni transhumaniste despre lume.

    Direcția asta de evoluție, cu toate realizările ei de confort și civilizație, știință și tehnologie acum se întoarce contra noastră. AM reușit să creăm o mașină în care se petrec lucruri ce ne scapă. E normal să fie anxietate când omul modern are o pată oarbă pentre realitățile obiective ale sufletului și ale spiritului.

    Psyche (ψυχή) în greaca veche însemna literal suflet — principiul vieții, esența animată a ființei.
    La origine, cuvântul era legat și de respirație (similar cu latinescul anima și ebraicul nephesh/ruach). Sufletul era „suflul de viață”.

    Ce înseamnă psihicul azi? Uite o ironie a istoriei:
    Ironia istorică: când s-a fondat psihologia în sec. XIX (oficial cu Wilhelm Wundt, 1879), numele însemna literal „studiul sufletului” (psyche + logos). Dar disciplina s-a născut tocmai în momentul în care știința abandonase conceptul de suflet. Așa că psihologia a devenit rapid:

    * studiul comportamentului (behaviorism)
    * studiul proceselor mentale (cognitivism)
    * studiul creierului (neuroștiință)

    Sufletul a dispărut din propria lui știință.

    Ne sperie posibilitatea nașterii unui psihic în AI? Cu siguranță. Dar dacă am recupera măcar știința despre suflet așa cum o aveau cei vechi ți înțelepți, anxietatea nu ar mai fi atât de mare.

    Mulțumesc mult de articol, Adrian 🥰🙏

Lasă un comentariu pentru Mitrut Danut Anulează răspuns

Adresa ta de email nu va fi publicată. Câmpurile necesare sunt marcate *