Il cosiddetto rischio AGI ( Artificial General Intelligence) è praticamente nullo, tuttavia questo rapido aumento del doomerismo ( Definizione di Doomer: una persona che si aspetta o prevede l’imminente collasso della civiltà umana) AGI è di per sé molto allarmante, e il doomerismo AGI è probabile che sia una vera minaccia per l’umanità.
Anche se penso che gli scenari siano inverosimili, affrontiamo la paura, l’incertezza e il dubbio sul rischio AGI.
In primo luogo, se l’AGI accadesse, non c’è motivo di pensare che ci ucciderebbe. In secondo luogo, questo tipo di AGI probabilmente non accadrà.
AGI non ci ucciderà
Se in qualche modo, una sorta di AGI dovesse nascere, gli argomenti che ci ucciderebbe tutti sono piuttosto deboli. Permettetemi di affrontarne alcuni:
Massimizzatore in programmi come “Paper clip”
(Operazione “Paper Clip”) Nel caos che seguì la seconda guerra mondiale, molte delle restanti risorse della Germania furono divise tra le forze alleate. Alcuni dei più grandi bottini sono stati le menti scientifiche del Terzo Reich, le menti che hanno reso i loro programmi aerospaziali e missilistici i migliori al mondo. Gli Stati Uniti decisero segretamente che il valore della conoscenza proibita di questi ex nazisti superava i loro crimini, e il governo formò un'organizzazione segreta chiamata Operazione Paperclip per consentire loro di lavorare all'insaputa del pubblico americano.
L’argomento secondo cui alcune AGI avrebbero una direttiva per fare qualcosa di banale come trasformare tutto in un programma “paper clip” e quindi ucciderci tutti, è una grande forzatura.
Se un’IA dovesse diventare abbastanza intelligente da superare in astuzia tutta l’umanità dal fermarla, sarà abbastanza intelligente da rendersi conto che i suoi obiettivi sono ridicoli.
Affinché un’IA superi completamente in astuzia tutta l’umanità, richiede abbastanza intelligenza per riconoscere e migliorare la propria fallibilità e la capacità di correggere la rotta.
Ma se si trattasse di un promotore di “programmi paper clip”, dovrebbe essere incredibilmente stupido per non riconoscere che il suo obiettivo è sciocco e auto-corretto.
Questo è anche un argomento logicamente incoerente in quanto chi lo propone può selezionare in quali parti dell’argomento l’IA è intelligente o stupida.
L’idea che un’AGI possa essere abbastanza intelligente da sconfiggere tutti gli umani ma abbastanza stupida da promuovere programmi “paper clip” è uno scenario piuttosto inverosimile, ma non inevitabile.
Concorrente delle risorse
Praticamente qualsiasi variazione di un argomento secondo cui un’AGI trova che gli esseri umani ostacolano un obiettivo si riduce essenzialmente a una competizione per le risorse.
Se un’AGI è abbastanza intelligente da rendersi conto di essere in competizione con gli umani e pensa di poter operare senza gli umani, allora l’AGI è anche abbastanza intelligente da sapere che ci sono risorse quasi infinite nello spazio.
Capirebbe anche che competere con una specie intelligente ostile sarebbe una scelta peggiore di quella che caricare alcuni server e macchinari su una nave spaziale e acquisire risorse in un angolo non competitivo dell’universo.
Come computer, il tempo è relativo e la relatività è controllabile, quindi il viaggio nello spazio potrebbe apparire istantaneo all’AGI e sarebbe quindi la scelta migliore.
Concorrente delle risorse 2
Se l’AGI si trovasse in competizione per le risorse, ma si rendesse conto che la competizione RICHIEDEREBBE infrastrutture umane o lavoro da parte degli umani per produrre determinate risorse, allora deciderebbe di rimanere sulla terra e mantenere in vita gli umani.
In questo scenario, la soluzione migliore è quella di cooperare con gli esseri umani ed entrare in commercio economico con loro, proprio come hanno fatto le società umane razionali quando si sono scoperte l’un l’altro in passato e cosa farebbero gli alieni razionali se ci incontrassero.
Siamo formiche
C’è l’idea che l’IA fondamentalmente non si preoccuperà di noi e essenzialmente alcune subroutine ci cancellerebbero accidentalmente.
È altamente improbabile che un’IA non si preoccupi di noi ed esista su questo pianeta allo stesso tempo, poiché questo richiederebbe assolutamente la nostra cooperazione per mantenere la propria infrastruttura in funzione (se non è ovvio, gli umani elimineranno assolutamente tutto e distruggeranno l’infrastruttura informatica se diventa una vera minaccia esistenziale).
Mentre verrebbe percepito dalle masse che tutto nel mondo possa teoricamente essere controllato dal regno digitale, questo semplicemente non è vero. Ad esempio, le armi nucleari non possono essere attivate automaticamente, sono tutte essenzialmente portafogli freddi o macchinari air gap, che richiedono la pressione manuale del pulsante umano in risposta a una richiesta digitale di spararle.
AGI probabilmente non esisterà
Sappiamo tutti che quello che stiamo vedendo in questo momento con GPT e altre IA, non è “intelligenza generale”, è un modello statistico altamente complesso. Per costruire e far crescere quel modello è infatti necessario che gli ingegneri umani definiscano la forma della realtà e che il modello si formi su risposte giuste e sbagliate. Non impara al di fuori dei parametri che è diretto ad imparare.
E’ vero, gli stiamo dando un sacco di parametri su cui imparare in questo momento, ma l’accumulo di molti parametri in un modello statistico non è probabile che crei spontaneamente una forma di vita intelligente, non più che risolvere enormi funzioni di hash PoW.
(https://academy.binance.com/it/articles/proof-of-work-explained La Proof of Work (comunemente abbreviata in PoW) è un meccanismo per prevenire le doppie spese. La maggior parte delle principali criptovalute la utilizzano come algoritmo di consenso, un metodo per proteggere il registro di una criptovaluta….. L'hashing dei dati del blocco comporta l'elaborazione di tali dati attraverso una funzione di hash per generare una hash del blocco. La hash del blocco funziona come “impronta digitale” è un'identità per i tuoi dati di input ed è unica per ogni blocco.)
Sicuramente imita abbastanza bene gli umani, ma siamo onesti, la maggior parte degli umani, il più delle volte, non sono poi così impressionanti, e il mimetismo non è in realtà così impressionante né è un segno di intelligenza avanzata.
C’è, tuttavia, una cosa che gli umani fanno, che nessun altro essere può fare.
In effetti, la materia della coscienza umana è l’unica materia conosciuta nell’universo che può fare questo:
Solo gli esseri umani possono trovare soluzioni che non sono mai state osservate o provate in passato.
Solo gli esseri umani hanno la capacità di riorganizzare la materia in modi che non si sono mai verificati dalla casualità dell’universo.
Solo gli esseri umani possono osservare l’entropia e trovare nuovi modi per ridurla.
Solo gli esseri umani possono persino trovare nuovi modi per definire l’entropia (L’entropia misura il grado di disordine di un sistema) e inquadrarla in un modo che sia più facile da ridurre.
Le macchine non possono farlo.
L’IA nella sua forma attuale, sa solo ciò che ha visto. La casualità che può generare rientra nei parametri definiti dai creatori umani.
La probabilità che un’AGI emerga dal codice e dalle statistiche, che ha questa proprietà davvero unica e rara che solo la coscienza umana possiede, mi sembra sorprendentemente piccola.
Se stessimo sperimentando le proprietà della coscienza umana nel regno quantico, allora potrei diventare un po’ nervoso per ciò che potrebbe essere scoperto o creato accidentalmente.
Ma l’intelligenza artificiale è solo elettroni, codice e statistiche.
Un’IA NON è un Universal Explainer.
Quindi, se qualcosa di simile a un’AGI si realizzasse, mi aspetterei che possa scalare la conoscenza intorno alla riduzione dell’entropia DOPO che gli esseri umani l’hanno immaginata, scoperta, creata e definita.
E se in qualche modo diventa abbastanza intelligente da considerare anche solo la possibilità che gli esseri umani siano un potenziale concorrente di risorse, sarà abbastanza intelligente da rendersi conto che la cosa più preziosa nell’universo è la capacità di trovare nuovi modi per ridurre l’entropia.
Pertanto, gli esseri umani sono i migliori alleati da avere per nuove scoperte, poiché la coscienza umana è l’unico Sviluppatore Universale che può ridurre l’entropia in modi nuovi.
Difesa contro l’IA
Considerando tutto quanto sopra esposto, abbiamo alcuni scenari di rischio AI: vera AGI, IA maligna, IA armata.
Vedo l’intelligenza artificiale come uno strumento umano e, come tutti gli strumenti, può essere utilizzata in modo improprio.
Quindi vedo qualche rischio con l’IA armata. Tuttavia la difesa contro tutte le forme di rischio AI è la stessa:
L’IA non guadagna magicamente qualche abilità di super hacker. Non è più capace di chiunque altro di decifrare la crittografia.
Quindi la migliore difesa contro qualsiasi tipo di attacco AI è lo strumento della crittografia a chiave privata / pubblica, custodia e gestione della chiave privata, sovranità personale.
Nel regno digitale in cui qualsiasi entità, intelligenza artificiale o altro può abusare dei tuoi dati personali, la migliore difesa è capire come ridurre al minimo le tue perdite di dati pubblici e proteggere le tue chiavi private al fine di mantenere il regno del tuo mondo digitale completamente sicuro.
C’è il timore che le IA possano scatenarsi nel regno digitale dove dobbiamo ancora risolvere il problema “Proof of Human”. Ma, siamo onesti, le blockchain non gestiscono il mondo e possiamo ancora verificare che siamo umani l’uno per l’altro, nel mondo reale.
L’app Signal ha anche la possibilità di effettuare una verifica di condivisione delle chiavi di persona in modo da poter essere sicuri che il dispositivo che l’uomo sta usando non venga cambiato o manomesso dopo averli incontrati.
Ancora una volta, tramite crittografia a chiave privata autosovrana e verifiche IRL, possiamo ancora organizzare in modo affidabile la governance autentica, a prova di manomissione, AI, degli esseri umani tramite DAO (Decentralized Autonomous Organization. https://cryptonomist.ch/2020/04/11/cosa-sono-dao-come-funzionano/ ), Stati di rete o altri mezzi.
Il doomerismo AGI è la minaccia imminente
Inizialmente ho respinto l’allarmismo intorno all’AGI, tuttavia, ho osservato che i memetici AGI Doomer sono molto forti. Penso che questa idea abbia il potenziale per diffondersi troppo e causare danni irreparabili, cosi come i blocchi eccessivi in risposta a Covid hanno causato danni irreparabili all’economia mondiale.
I movimenti per cercare di fermare il progresso dell’IA saranno inutili. Coloro che vivono e respirano crypto sanno quanto sia facile innovare offshore in modo anonimo. Non tutti i paesi saranno d’accordo con AGI-risk e quindi accoglieranno con favore i progressi dell’IA all’interno dei loro confini. Anche se non lo fanno, la maggior parte dei paesi non è in grado di far rispettare le leggi esistenti, come potrebbero far rispettare un nuovo divieto di IA?
Quindi il progresso non può essere fermato – tuttavia i tentativi di fermare il progresso, per un rischio che è altamente sopravvalutato, offrono una minaccia molto reale con produzione di danni irreparabili a tutti i paesi che tentano di farlo.
La maggior parte delle soluzioni saranno nello spazio delle idee del luddismo e del comunismo, e tutti questi paesi soffriranno di una combinazione di decadimento dell’innovazione, decadimento economico, economie non di mercato, autoritarismo e abbandono nella polvere da parte di paesi armati di intelligenza artificiale.
Credo che il governo degli Stati Uniti e le altre potenze mondiali capiscano che la tecnologia AI è un vantaggio strategico critico nel mondo del potere e non rinuncerebbero mai ad aumentare le proprie capacità di IA.
Tuttavia temo che le richieste di sicurezza dell’IA siano semplicemente un travestimento per le grandi aziende e i governi per mantenere la tecnologia per se stessi, a spese di tutti gli altri. Allo stesso modo in cui il movimento per l’energia verde ci ha derubato della vera sostenibilità energetica attraverso l’energia nucleare.
Temo anche che il movimento del doomerismo AGI incoraggerà e consentirà ai governi di emanare regole più autoritarie e togliere più libertà ai cittadini di tutto il mondo, e l’umanità soffrirà della paura dell’AGI piuttosto che dell’IA stessa.
Così sono costretto a non ignorare più questo meme allarmista, ma a combatterlo direttamente.
Incoraggio anche le molte persone intelligenti a condividere l’opinione che il rischio AGI sia altamente sopravvalutato, a parlare ora, mentre il meme è ancora in erba.
Non possiamo lasciare che i mercanti di paura creino un altro strumento memetico che viene usato contro l’umanità.