Australia prende in considerazione il divieto per l’intelligenza artificiale ad alto rischio

VEB

L’Australia sta prendendo in considerazione il divieto dell’uso dell’intelligenza artificiale (IA) ad alto rischio, nonostante il suo potenziale economico. L’IA ad alto rischio, che promuove comportamenti autolesionistici e diffonde disinformazione, potrebbe essere vietata mentre il governo cerca di massimizzare i benefici di questa tecnologia, che secondo alcune stime potrebbe contribuire ad aumentare l’economia fino a 4 trilioni di dollari entro i prossimi dieci anni.

Australia prende in considerazione il divieto per intelligenza artificiale ad alto rischio
Foto@Pixabay

Il governo australiano ha recentemente pubblicato due documenti fondamentali che gettano le basi per la regolamentazione dell’IA. Un documento di discussione del Dipartimento dell’Industria riconosce i notevoli vantaggi produttivi che l’IA potrebbe apportare, ad esempio ottimizzando l’ingegneria degli edifici, fornendo servizi legali e migliorando la gestione dei dati dei pazienti ospedalieri. Secondo un rapporto della società di consulenza McKinsey, questa tecnologia potrebbe aggiungere tra 1,1 trilioni e 4 trilioni di dollari all’economia australiana entro i primi anni ’30.

Tuttavia, sia il documento di discussione che una risposta separata alle conseguenze dell’IA generativa, come nel caso di ChatGPT, da parte del Consiglio Nazionale per la Scienza e la Tecnologia, mettono in guardia contro i rischi profondi associati all’IA. Questi documenti sono stati pubblicati nello stesso periodo in cui il fondatore di ChatGPT e altri leader dell’IA hanno emesso una dichiarazione in cui si sottolinea che “mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.

Il ministro dell’Industria e della Scienza, Ed Husic, ha sottolineato che i partiti di opposizione desiderano aumentare la fiducia del pubblico nella capacità del governo di proteggere i cittadini dai pericoli. Husic ha affermato che “utilizzare l’IA in modo sicuro e responsabile richiede un equilibrio con cui il mondo intero si sta confrontando in questo momento“. Ha anche sottolineato che i vantaggi derivanti dall’IA sono enormi, sia che si tratti di combattere i superbatteri con nuovi antibiotici sviluppati dall’IA, sia di prevenire le frodi online. Tuttavia, ha sottolineato l’importanza di mettere in atto adeguate protezioni per garantire un uso sicuro e responsabile dell’IA.

Durante un periodo di consultazione di otto settimane per determinare potenziali modifiche legislative, il governo australiano ha chiesto se le applicazioni o le tecnologie di intelligenza artificiale ad alto rischio dovrebbero essere completamente vietate. Inoltre, ha segnalato la possibilità di apportare modifiche alle leggi sui consumatori, sulle imprese, sulla sicurezza online, sul diritto penale, amministrative, sul copyright, sulla proprietà intellettuale e sulla privacy.

Il documento di discussione del governo evidenzia le molteplici preoccupazioni e gli esempi di utilizzi potenzialmente dannosi dell’IA, come la creazione di deepfake per influenzare i processi democratici o per perpetrare altre forme di inganno, la diffusione di disinformazione e il rischio di incoraggiare le persone a farsi del male. Inoltre, viene sottolineato che le imprecisioni nei modelli di intelligenza artificiale possono causare problemi significativi, tra cui pregiudizi indesiderati e risultati fuorvianti o completamente errati, spesso definiti come “allucinazioni” dell’IA generativa. Il documento mette in rilievo il bias algoritmico come una delle minacce più significative.

Concludendo, l’Australia sta valutando attentamente l’introduzione di regolamentazioni sull’uso dell’IA ad alto rischio. Sebbene il paese riconosca il notevole potenziale economico dell’IA, le preoccupazioni riguardanti l’autolesionismo e la diffusione di disinformazione hanno portato il governo a prendere in considerazione un divieto. Durante il processo di consultazione, verranno esaminate possibili modifiche legislative per garantire un uso sicuro e responsabile dell’IA, tutelando così i cittadini da potenziali danni.

Next Post

Non scopriresti mai cosa fa 1 uomo su 8 ad un funerale

Un recente studio condotto dal marchio di preservativi Trojan ha rivelato un fatto sorprendente: uno su otto degli uomini di età inferiore a 35 anni ha ammesso di portare con sé un preservativo a un funerale “per ogni evenienza“. Sebbene possa sembrare strano o persino inappropriato, sembra che ci sia […]
Non scopriresti mai cosa fa 1 uomo su 8 ad un funerale