Come Immagini Alterate Ingannano l’Intelligenza Artificiale e Cambiano la Nostra Percezione

VEB

Recenti studi pubblicati sulla rivista Nature Communications hanno rivelato una correlazione tra le immagini digitali manipolate che influenzano i sistemi di intelligenza artificiale (AI) e il loro effetto sulla percezione umana.

Come Immagini Alterate Ingannano intelligenza Artificiale e Cambiano la Nostra Percezione

Questa scoperta sottolinea l’importanza della sicurezza nell’uso dell’intelligenza artificiale e delle sue ripercussioni sulla realtà che ci circonda. È stato scoperto che piccole alterazioni nelle immagini digitali, create appositamente per confondere i sistemi di visione artificiale, possono anche alterare la percezione umana. Tali manipolazioni, denominate attacchi adversarial, possono trarre in inganno l’AI facendola classificare in modo errato i contenuti, ma influenzano anche la capacità umana di interpretare l’ambiente.

È sorprendente scoprire che anche lievi distorsioni, che modificano i pixel di soltanto due livelli su una scala da 0 a 255, possono indurre in errore l’IA, mettendo in luce la sua vulnerabilità.

Questa ricerca va oltre il digitale. Anche oggetti reali, come la trasformazione di un segnale stradale di stop in un limite di velocità, possono essere soggetti a questi attacchi. I ricercatori stanno cercando attivamente soluzioni per difendersi da tali minacce, data la loro possibile incidenza sulla sicurezza.

Inoltre, sono stati condotti esperimenti per analizzare l’effetto di questi attacchi sulla percezione umana. Ai partecipanti venivano mostrate coppie di immagini, ognuna sottoposta a un attacco adversarial. Per esempio, un’immagine originariamente classificata come “vaso” veniva modificata per far sembrare all’IA che rappresentasse un “gatto” o un “camion”. Ai partecipanti veniva poi chiesto di identificare quale immagine somigliasse di più a un gatto.

Nonostante nessuna delle immagini raffigurasse un gatto, i partecipanti tendevano a scegliere una delle immagini alterate.

Questa scoperta indica che anche gli esseri umani possono essere influenzati da immagini modificate, anche se le modifiche riguardano pochi pixel. Questa influenza sulla percezione umana sottolinea l’importanza di ulteriori ricerche in questo campo.

È cruciale riconoscere che l’effetto degli attacchi adversarial si estende oltre la percezione delle macchine, influenzando anche le decisioni umane. Questo pone l’enfasi non solo sulla necessità di proteggere l’AI, ma anche di comprendere come la tecnologia influenzi gli esseri umani.

L’urgenza di sviluppare tecnologie più sicure e affidabili sta crescendo in un mondo sempre più accelerato, dove i confini tra gli effetti sulle macchine e sugli umani si stanno progressivamente sfumando.

Next Post

Che cos'è il nono numero di Dedekind

In un’impresa che ricorda l’esplorazione di territori sconosciuti, un gruppo di matematici ha fatto una scoperta rivoluzionaria dopo tre decenni di ricerca: hanno identificato un nuovo tipo di numero intero, conosciuto come il nono numero di Dedekind. Per gli amanti della matematica, si ritiene che il D(9) sia un enorme […]
Che cose il nono numero di Dedekind