lunedì 10 aprile 2023

AUTODAFE' Il deep learning ha bisogno di diventare intelligente?

Ogni volta che si verificano evidenti progressi nel campo dellintelligenza artificiale riparte il dibattito: “Le macchine stanno raggiungendo l’essere umano? Stanno diventando davvero intelligenti?”. L’ultima occasione, ovviamente, è l’avvento delle intelligenze artificiali generative, soprattutto nel caso dei ChatGPT e della sua nuova iterazione GPT-4.

Elon Musk ed esperti del settore tech hanno firmato un appello per chiedere una pausa nello sviluppo dei potenti sistemi di intelligenza artificiale per concedere il tempo necessario a elaborare regole per il suo controllo.

La lettera aperta, firmata finora da più di 1.000 persone tra cui Musk e il co-fondatore di Apple Steve Wozniak, è stata sollecitata dal rilascio di GPT-4 dalla società OpenAI di San Francisco. L'azienda afferma che il suo ultimo modello è molto più potente della versione precedente , utilizzata per alimentare ChatGPT.

"Questi sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l'umanità", afferma la lettera aperta intitolata "Pause Giant AI Experiments". "I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili", ammoniscono i firmatari del testo.

Ecco il testo integrale della lettera .

"I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di IA. Come affermato nei principi di Asilomar per l'intelligenza artificiale ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno - nemmeno i loro creatori - è in grado di comprendere, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani in compiti generali e dobbiamo chiederci se sia il caso di lasciare che le macchine inondino i nostri canali di informazione.Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che a un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli. Siamo d’accordo. Quel punto è ora, lo abbiamo già raggiunto.

Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa deve essere pubblica e verificabile e deve includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria. I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti. La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i potenti sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali. Parallelamente, gli sviluppatori di IA devono lavorare con i politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; sorveglianza e monitoraggio di sistemi di IA altamente capaci e di grandi bacini di capacità computazionale; sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie; un robusto ecosistema di auditing e certificazione; responsabilità per i danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà. L’umanità può godere di un futuro fiorente con l’IA. Essendo riusciti a creare potenti sistemi di IA, possiamo ora goderci una estate dell’IA in cui raccogliere i frutti, progettare questi sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per la stessa e possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, non precipitiamoci impreparati in un autunno".

Settanta anni fa Alan Turing figura fondante nel campo dell’informatica (e non solo) nel suo seminale paper del 1950 – Computer Machinery and Intelligence – si era esplicitamente chiesto: “Le macchine possono pensare?”.

Probabilmente a settanta anni di distanza da quella domanda non riusciamo a dare una risposta. E probabilmente la lettera di Elon Masck e delle altre personalità che l'hanno firmata non tiene conto di due aspetti fondamentali nell'esaminare la questione dell'intelligenza artificiale. Quella della trasparenza e della concorrenza che sono percorsi decisivi per rendere la stessa cosiddetta intelligenza artificiale unol strumento utile alle necessità dell'umanità.

Andrea Daniele Signorelli su Wired.it di recente si pone un'ulteriore e fondamentale domanda il deep learning ha bisogno di diventare intelligente: E lo spiega così: “sono passati oltre settant’anni e l’intelligenza artificiale ha alternato svariati cosiddetti “inverni” (periodi in cui la ricerca si arena e i finanziamenti si riducono) a fasi di rapidissimo sviluppo. È il caso degli ultimi dieci anni, in cui l’enorme diffusione degli algoritmi di deep learning è stata costantemente accompagnata dalla domanda relativa a quanto potessero essere considerati (o almeno diventare) davvero intelligenti. Col passare del tempo, ci stiamo però rendendo conto che, forse, la vera domanda da porsi potrebbe essere un’altra: ma il deep learning ha bisogno di diventare intelligente? Perché sentiamo la necessità di misurare i suoi progressi in termini umani?

Dunque è necessario misurare i progressi del deep learning in termini umani ?Lla domanda è fondamentale .Almeno la ritengo fondamentale. La domanda potrebbe essere semplice ovvero “ no”. Ma è una risposta troppo facile .O no?



Eremo Rocca S. Stefano lunedì 10 aprile 2023

 



Nessun commento:

Posta un commento