L’intelligenza artificiale controlla già le tue decisioni

Gli esperti avvertono dei rischi di Big Tech che continua a utilizzare la stessa tecnologia con più risorse.

Supponiamo che ti venga chiesto di utilizzare un algoritmo per determinare quale politico si adatta meglio alle tue preferenze.

Lo strumento ti pone quindi alcune domande tipiche di un test di personalità, quindi ti offre un risultato in cui sei ragionevolmente ritratto e indica quali sono i candidati più appropriati in base alle informazioni che hai raccolto.

Seguiresti il ​​suo consiglio?

Secondo gli esperimenti condotti da Helena Matute e Ujué Agudo, ricercatori dell’Università di Deusto, per lo studio che hanno appena pubblicato, non solo accetteremmo quella raccomandazione, ma agiremmo anche in base a essa senza mettere in dubbio l’affidabilità di questo sistema, i dettagli di cui non sappiamo e che, in questo caso, non esistono nemmeno.

Le domande erano appiccicose. La valutazione, una risposta generica per tutti i partecipanti – che, tra l’altro, hanno valutato il sistema come “moderato o molto accurato” – e l’algoritmo calcola una randomizzazione.

Lo scopo dei ricercatori, che hanno applicato una serie di variazioni di questo esperimento alla scelta dei candidati politici e dei contatti in un’app di appuntamenti, era vedere se un algoritmo può influenzare le preferenze delle persone attraverso la persuasione esplicita o nascosta.

Nel contesto delle applicazioni di appuntamenti, il metodo più efficace era nascosto, in cui all’utente non veniva detto quale utente è l’utente consigliato, ma veniva mostrato il sondaggio più volte.

Con l’aumentare dell’esposizione, i partecipanti tendevano a scegliere i più visti, guidati da un maggiore senso di familiarità. I ricercatori spiegano che questa differenza potrebbe essere correlata alla preferenza per il consiglio umano in contesti soggettivi, come chi fino ad oggi, mentre abbiamo optato per il consiglio algoritmico nelle decisioni razionali come chi votare.

Tuttavia, gli esperti qualificano la variazione per contesto come qualcosa di “aneddotico” rispetto all’importanza del semplice fatto che questa influenza esiste:” Trovo molto preoccupante che solo perché credi che sia un’intelligenza artificiale a consigliarti cosa fare, ti fidi. Chiediamo all’oracolo, come nei tempi antichi”.

Perché basta un algoritmo fittizio per cadere nella trappola?

Ci sono persone per le quali questi tipi di descrizioni vaghe della personalità possono dire quanto bene funzioni l’oroscopo. È la mente umana, che è molto vulnerabile. Siamo molto esposti a credere a certe cose”, ragionano gli autori.

Per quanto riguarda quanto sia ragionevole per noi che un algoritmo possa, con poche domande, determinare per chi dovremmo votare, entrambi i ricercatori concordano sul fatto che siamo sempre più abituati ad accettare ciecamente tutti i tipi di raccomandazioni.

Siamo esseri ripetibili, quindi gli algoritmi ci conoscono meglio di noi stessi che alla fine ci crederemo. Ma una cosa è che ci conoscano e un’altra che ciò che ci consigliano è il meglio per noi.

Il loro obiettivo non è quello. È che trascorri più tempo possibile sulle loro piattaforme. L’utente deve tenerne conto, perché ci sembra che la decisione sia libera, ma è mediata dalla raccomandazione stessa”.

Inoltre, l’efficacia dell’algoritmo fittizio suggerisce che un sistema più sofisticato come quelli con cui interagiamo ogni giorno nei motori di ricerca, nei social network e nelle piattaforme di streaming, tra gli altri, ha il potenziale per raggiungere livelli di influenza molto più elevati. Un esempio è l’ambito che l’algoritmo di F-ac-eb-oo-k potrebbe avere nella sua nuova app per coppie.

Abbiamo fatto alcuni esperimenti controllati. Le grandi piattaforme che possono, continuamente, perfezionare questo algoritmo e molte volte non sapremmo nemmeno che lo stanno facendo, afferma Agudo.

Queste disuguaglianze tra la ricerca che un’istituzione accademica può svolgere e quelle che vengono condotte privatamente e spesso in modo opaco all’interno di queste aziende vanno oltre il numero di soggetti e anche le tecnologie disponibili.

Possono fare molte più ricerche di noi, non solo perché hanno accesso a più persone, ma anche perché vanno oltre l’etica“, sottolinea Matute. “Abbiamo dovuto fare tutto con cose fittizie. Lo fanno con veri politici in vere elezioni”.

Il ricercatore è particolarmente critico nei confronti dei laboratori e dei comitati etici incorporati da aziende come G-o-og-le.

Soprattutto, quando c’è qualcuno che lo prende sul serio, lo tolgono di mezzo, anche se non si deve lasciare il dibattito etico nelle mani delle aziende tecnologiche.

In questo senso, i ricercatori confidano che il loro lavoro, che comporta anche la pubblicazione dei dati grezzi raccolti, contribuirà ad espandere la ricerca accademica e pubblicamente accessibile su questi argomenti.

Dal nostro punto di vista tutto si sta aprendo sempre di più. Chiunque può analizzare esperimenti, replicarli, valutare ipotesi… Adesso vuoi controllare se l’algoritmo di N-et-fli-x sta dando più importanza all’una o all’altra variabile e non hai modo di saperlo, dice Agudo.

Per quanto riguarda il modo in cui vengono presentate queste raccomandazioni già onnipresenti, Matute sottolinea che sono preferibili quelle presentate in modo esplicito, poiché almeno danno la possibilità all’utente di non essere segretamente influenzato.

Fonte: https://real-agenda.com/

®wld