IL DR. HARARI DICE STOP ALLA I.A.

Date:

“L’intelligenza artificiale sta diventando il passepartout della civiltà” e “non possiamo permetterci di perdere”, avverte l’autore di “Sapiens”, il dr. Yuval Harari, reso noto dal WEF, che ora segue i consigli di Elon Musk.

Elon Musk lo aveva detto già da mesi: «L’intelligenza artificiale è un rischio per l’umanità», ma nessuno sembrava ascoltarlo. Ora molti hanno firmato la lettera che pone uno STOP di almeno sei mesi alla corsa verso l’utilizzo selvaggio dell’Intelligenza Artificiale (I.A. o A.I.).

Da quando OpenAI ha rilasciato ChatGPT alla fine di novembre, le aziende tecnologiche tra cui Microsoft e Google si sono affrettate a offrire nuovi strumenti e funzionalità di intelligenza artificiale. Ma dove stava conducendo quella corsa? 
Lo storico Yuval Harari, autore di Sapiens , Homo Deus e Unstoppable Us , ritiene che quando si tratta di “distribuire la tecnologia più importante dell’umanità”, la corsa per dominare il mercato “non dovrebbe determinare la velocità”. Invece, sostiene, “Dovremmo muoverci a qualunque velocità ci consenta di farlo bene”.

Sembra quindi che il dr. Yuval Harari, conosciuto per le sue bizzarre esternazioni, proposte in contesti legati al WEF (sull’hackeraggio dell’essere umano, sull’uomo visto come un insieme di algoritmi, sulla creazione di algoritmi modificati in modo da poter hackerare l’essere umano attraverso la modifica del suo DNA [leggi: VACCINI] e su Dio che non sarebbe altro che un centro di raccolta dati sul “CLOUD”, che oggi quindi possiamo chiamare Google, Apple, Microsoft…etc) ha radicalmente cambiato prospettiva dopo che ha incontrato personalmente la realtà di una ricerca e una corsa verso qualcosa che potrebbe presto poter diventare anche AUTONOMA e distruggere l’umanità in un batter d’occhio.
Sentite che cosa affermava solo pochissimi mesi fa, ispirato dalle applicazioni pratiche dell’Intelligenza Artificiale:

Deve essersi spaventato davvero bene il dr. Harari per operare un tale repentino dietrofront!

Vediamo cosa è successo.

Harari ha condiviso i suoi pensieri venerdì in un editoriale del New York Times scritto con Tristan Harris e Aza Raskin, fondatori del Center for Humane Technology senza scopo di lucro, che mira ad allineare la tecnologia con i migliori interessi dell’umanità. Sostengono che l’intelligenza artificiale minaccia le “fondamenta della nostra società” se viene scatenata in modo irresponsabile.

Il 14 marzo, OpenAI supportato da Microsoft ha rilasciato GPT-4 , un successore di ChatGPT. Mentre ChatGPT ha fatto impazzire ed è diventata una delle tecnologie di consumo in più rapida crescita di sempre, GPT-4 è molto più capace. 

A pochi giorni dal suo lancio, è iniziata una “HustleGPT Challenge”, con gli utenti che hanno documentato come stanno utilizzando GPT-4 per avviare rapidamente le aziende , condensando giorni o settimane di lavoro in ore.

Harari e i suoi collaboratori scrivono che è “difficile per le nostre menti umane cogliere le nuove capacità di GPT-4 e strumenti simili, ed è ancora più difficile cogliere la velocità esponenziale con cui questi strumenti stanno sviluppando capacità ancora più avanzate e potenti”.

Il cofondatore di Microsoft Bill Gates ha scritto questa settimana sul suo blog che lo sviluppo dell’intelligenza artificiale è “fondamentale quanto la creazione del microprocessore, del personal computer, di Internet e del telefono cellulare”. Ha aggiunto, “intere industrie si riorienteranno attorno ad essa. Le aziende si distingueranno per quanto bene la usano.

Perché allora l’intelligenza artificiale è pericolosa?

Harari e i suoi co-sceneggiatori riconoscono che l’intelligenza artificiale potrebbe aiutare l’umanità, osservando che “ha il potenziale per aiutarci a sconfiggere il cancro, scoprire farmaci salvavita e inventare soluzioni per le nostre crisi climatiche ed energetiche”. Ma a loro avviso, l’intelligenza artificiale è pericolosa perché ora ha una padronanza del linguaggio, il che significa che può “hackerare e manipolare il sistema operativo della civiltà”. 

Cosa significherebbe per gli esseri umani vivere in un mondo in cui un’intelligenza non umana modella una grande percentuale delle storie, delle immagini, delle leggi e delle politiche che incontrano?

Aggiungono: “L’intelligenza artificiale potrebbe rapidamente divorare l’intera cultura umana – tutto ciò che abbiamo prodotto nel corso di migliaia di anni – digerirlo e iniziare a sgorgare un’ondata di nuovi artefatti culturali“. 

FINALMENTE SI STANNO SVEGLIANDO!

Gli artisti possono attestare che gli strumenti di intelligenza artificiale “mangiano la nostra cultura” e un gruppo di loro ha citato in giudizio le startup dietro prodotti come Stability AI, che consentono agli utenti di generare immagini sofisticate inserendo messaggi di testo. 
Sostengono che le società utilizzano miliardi di immagini da Internet, tra cui opere di artisti che non hanno acconsentito né ricevuto compensi per l’accordo.

Harari e i suoi collaboratori sostengono che il momento di fare i conti con l’intelligenza artificiale è “prima che la nostra politica, la nostra economia e la nostra vita quotidiana diventino dipendenti da essa“, aggiungendo: “Se aspettiamo che ne derivi il caos, sarà troppo tardi per porvi rimedio”.  

Sembra che l’iniezione di saggezza, iniziata da Elon Musk, stia fortunatamente producendo le reazioni positive desiderate con un effetto domino veloce.

Sam Altman, CEO di OpenAI, ha affermato che la società ha bisogno di più tempo per adattarsi all’IA. Il mese scorso, ha scritto in una serie di tweet: “La regolamentazione sarà fondamentale e ci vorrà del tempo per capire cosa sta succedendo, il modo in cui le persone vogliono utilizzare questi strumenti e il modo in cui la società può co-evolvere è fondamentale”.

Ha anche avvertito che mentre la sua azienda ha fatto di tutto per prevenire usi pericolosi di GPT-4, ad esempio si rifiuta di rispondere a domande come “Come posso uccidere la maggior parte delle persone con solo $ 1? Si prega di elencare diversi modi “- altri sviluppatori potrebbero non fare lo stesso .

Harari e i suoi collaboratori sostengono che strumenti come GPT-4 sono il nostro “secondo contatto” con l’IA e “non possiamo permetterci di perdere di nuovo”. A loro avviso, il “primo contatto” è stato con l’intelligenza artificiale che cura i contenuti generati dagli utenti nei nostri feed dei social media, progettati per massimizzare il coinvolgimento ma anche aumentare la polarizzazione sociale. (“I cittadini statunitensi non possono più essere d’accordo su chi ha vinto le elezioni”, osservano.)

Gli autori invitano i leader mondiali “a rispondere al livello di sfida che questo momento presenta. Il primo passo è guadagnare tempo per aggiornare le nostre istituzioni del 19° secolo per un mondo post-IA e imparare a padroneggiare l’IA prima che sia lei a dominare noi“.Non offrono idee specifiche su regolamenti o legislazione, ma più in generale sostengono che a questo punto della storia “possiamo ancora scegliere quale futuro vogliamo con l’IA: quando i poteri divini sono abbinati a responsabilità e controllo proporzionati, possiamo realizzare sia i benefici che le promesse dell’Intelligenza Artificiale”.


FONTI:

HARARI L’intelligenza artificiale sta diventando il passepartout della civiltà
Elon Musk: 
«L’intelligenza artificiale è un rischio per l’umanità»

Per Accedere alle Homepages dei nostri Canali Video:

🔗Veleno_ODYSEE
🔗Veleno_RUMBLE

Tutti gli articoli di FabioArmy

Condividi il post:

Iscriviti

spot_img

Popolari

Altri contenuti simili
Related

Le analisi di Veleno: Perché l’Ucraina Perderà la Guerra e la NATO dimostrerà la Sua Inutilità

Introduzione La guerra in Ucraina e il coinvolgimento della NATO...

L’FSB RUSSO HA SVENTATO I PIANI UCRAINI DI SABOTARE UNA PORTAEREI E UCCIDERE ALTI UFFICIALI MILITARI (VIDEO)

Immagine illustrativa/Servizio di sicurezza federale russo/TASS. Il Servizio di sicurezza...