Il confine tra efficienza aziendale e diritto individuale non è mai stato così sottile. Immaginate di inviare centinaia di candidature, di curare ogni dettaglio del vostro curriculum e di ricevere, come unica risposta, un silenzio metodico e digitale. Per migliaia di professionisti, questo non è un timore ipotetico, ma la realtà quotidiana di un mercato del lavoro mediato da algoritmi. Oggi, però, quella “scatola nera” tecnologica sta per essere forzata: una causa legale contro Eightfold AI sta portando alla luce le criticità di un sistema che valuta gli esseri umani come se fossero linee di credito.

L’ascesa dei giudici invisibili
Per anni, le aziende hanno adottato software di intelligenza artificiale con una promessa allettante: eliminare i pregiudizi umani e velocizzare la selezione tra migliaia di profili. Eightfold AI è uno dei giganti di questo settore, capace di aggregare dati su milioni di professionisti, incrociando competenze, aree geografiche e percorsi di carriera.
Il meccanismo è apparentemente lineare. L’intelligenza artificiale assegna a ogni candidato un punteggio da uno a cinque. Un numero che decide, in frazioni di secondo, se un profilo merita l’attenzione di un selezionatore in carne ed ossa o se deve finire nel dimenticatoio digitale. Tuttavia, il problema sollevato dai querelanti è proprio la natura di questo punteggio: un sistema opaco, privo di trasparenza, che i ricorrenti paragonano ai metodi di calcolo del credit scoring bancario.
- Radio GPT: perché la tua prossima voce preferita potrebbe non esistere
- L’intelligenza artificiale ha imparato i nostri peggiori difetti.
- AI: Perché il tuo titolo di studio non basta più
Il paradosso dello 0,3%: l’esperienza di Erin Kistler
L’impatto umano di queste tecnologie emerge con chiarezza nelle testimonianze raccolte. Erin Kistler, un’esperta informatica con competenze consolidate, ha trasformato la sua ricerca di lavoro in un caso studio involontario. Monitorando meticolosamente ogni singola candidatura inviata nell’ultimo anno – un volume che sfiora le migliaia – ha riscontrato un tasso di successo nel superare il primo filtro algoritmico pari ad appena lo 0,3%.
Questo dato non fotografa solo la difficoltà di trovare impiego, ma solleva un dubbio sistemico: è possibile che un’intelligenza artificiale, nel tentativo di essere efficiente, stia diventando escludente? I candidati lamentano una totale perdita di controllo sui propri dati personali. Non sanno quali informazioni vengano raccolte, come vengano pesate e, soprattutto, non hanno modo di contestare un giudizio errato. È la nascita di una nuova forma di burocrazia digitale, dove l’interlocutore è un codice proprietario protetto dal segreto commerciale.
La scatola nera e il diritto alla spiegazione
Il cuore della controversia legale risiede nel concetto di “Black Box” (scatola nera). Quando un istituto di credito rifiuta un prestito, esistono normative che impongono una qualche forma di spiegazione. Nel mondo del recruitment mediato dall’IA, questo diritto sembra essere evaporato.
Il sistema di Eightfold AI attinge a enormi database per prevedere il successo potenziale di un candidato. Ma cosa accade se i dati storici su cui l’IA è stata addestrata contengono pregiudizi impliciti? Se, ad esempio, l’algoritmo impara che per una determinata posizione sono stati storicamente assunti profili con certe caratteristiche demografiche, potrebbe continuare a premiarli, perpetuando disuguaglianze sistemiche sotto una vernice di oggettività tecnologica.
I querelanti sostengono che questo processo violi i diritti dei consumatori, equiparando il curriculum a un documento finanziario che determina l’accesso a opportunità vitali.

Un mercato del lavoro in bilico
Siamo di fronte a un “incubo tecnologico” per i lavoratori? Per molti, la risposta è sì. La sensazione di non competere più con altri professionisti, ma con un software programmato per trovare “l’ago nel pagliaio” secondo criteri rigidi, sta minando la fiducia nel sistema di assunzione.
Dall’altro lato, le aziende difendono la necessità di questi strumenti. Con l’esplosione delle candidature online, gestire il flusso di curricula senza un aiuto automatizzato appare, dal punto di vista gestionale, un’impresa impossibile. Il conflitto, dunque, non è tra tecnologia e umanità, ma tra automazione incontrollata e trasparenza dovuta.
Verso un nuovo quadro giuridico
La causa contro Eightfold AI non è solo una disputa tra privati; è un test cruciale per i limiti della legalità nell’era dell’intelligenza artificiale. Se i tribunali dovessero dare ragione ai candidati, l’intera industria del software HR (Human Resources) dovrebbe essere rivoluzionata.
Potremmo assistere all’introduzione di:
- Audit obbligatori: verifiche periodiche da parte di enti terzi sulla neutralità degli algoritmi.
- Diritto alla trasparenza: l’obbligo per le aziende di spiegare i criteri che hanno portato all’esclusione di un candidato.
- Intervento umano garantito: la necessità che un punteggio algoritmico non sia mai l’unico fattore decisivo.
Lo scenario futuro: l’IA come alleata o come ostacolo?
Il futuro del lavoro dipenderà da come risolveremo questo paradosso. L’intelligenza artificiale ha il potenziale per scoprire talenti nascosti che un occhio umano distratto potrebbe ignorare, ma solo se progettata con l’etica al centro. Se invece continuerà a operare come un setaccio cieco e insindacabile, il rischio è quello di creare una classe di lavoratori “digitalmente inidonei” senza che ne conoscano mai il motivo.
Mentre Eightfold AI mantiene il riserbo, rifiutando di commentare le accuse, il dibattito si sposta nelle aule di tribunale e nella coscienza collettiva dei professionisti di tutto il mondo. La domanda rimane: siamo pronti a lasciare che sia un numero, generato da una macchina, a definire il valore della nostra carriera?
Curiosa per natura e appassionata di tutto ciò che è nuovo, Angela Gemito naviga tra le ultime notizie, le tendenze tecnologiche e le curiosità più affascinanti per offrirtele su questo sito. Preparati a scoprire il mondo con occhi nuovi, un articolo alla volta!




