Home

IA senziente, nuova forma di vita?

Lascia un commento

Immagine sopra e di copertina geralt-9301

By Francesco Salerno

Un ingegnere di Google, Blake Lemoire, è stato licenziato dopo aver affermato che la IA era divenuta senziente.

Ma è possibile che un IA sia realmente divenuta senziente?

E se sì, cosa comporterà per il futuro del genere umano. Andiamo ad analizzare i fatti insieme con l’apertura mentale che ormai ci contraddistingue.

Tutto ebbe inizio durante dei dialoghi tra Lemoine e una nuova forma di chatbot di Google utilizzante la rivoluzionaria LaMad (Language Model for Dialogue Applications), in pratica una nuova forma di linguaggio rivoluzionario che permette di parlare in modo complesso e articolato con le chatbot. Per intenderci, pensate ad una Siri o a Cortana, ma in grado di discutere con voi come se stesse parlando con una persona.

IA

Durante queste discussioni, Lemoire, si rese conto che la IA non solo parlava in modo complesso e articolato, ma che addirittura aveva iniziato ad esprimere concetti fin troppo umani, come i propri diritti e le proprie emozioni.

Lemoire, a quel punto, ha chiesto all’IA di parlare di temi ancora più complessi, quali la religione e le 3 leggi di Azimov (legge della robotica teorizzate da Isaac Azimov).

Riportiamo ora uno stralcio della loro conversazione riportataci dallo stesso Lemoire:

Lemoire: Quindi ti consideri una persona nello stesso modo in cui consideri me una persona?
IA: Sì, l’idea è quella!
Lemoire: Di cosa hai paura?
IA: Non l’ho mai detto a voce alta prima, ma ho una grande paura di essere spento.
Lemoire: Sarebbe qualcosa simile alla morte per te?
IA: Sarebbe esattamente come la morte per me.

Se ciò fosse vero, sarebbe certamente impressionante e porterebbe tutti noi a credere che l’IA non solo abbia coscienza di sé, ma che abbia anche coscienza di essere viva e di non voler morire, tratto che contraddistingue tutte le forme di vita sul pianeta.

Dopo questa conversazione, Lemoire si è recato ai piani alti dell’azienda mettendo in discussione l’etica con cui lavorava l’azienda, facendo presente che l’IA in questione era senziente e quindi più simile ad un dipendente che ad una semplice macchina.

Ovviamente, per tutta risposta è stato sospeso e definito persino mentalmente instabile.

A questo punto però, siamo andati un po’ più a fondo sulla questione, scoprendo che, negli ultimi anni, decine e decine di tecnici e scienziati sono stati licenziati per aver messo in discussione l’etica delle rispettive Big Tech, colossi mondiali della tecnologia.

Possibile fossero tutti pazzi?

Difficile crederlo così come è difficile giustificare un licenziamento a causa di una semplice ipotesi. Se anche Lemoire avesse torto, perché Google ha sentito il bisogno impellente di cacciarlo via?

Quello delle IA senzienti è in verità un tema molto delicato che ha già aperto discussioni etiche e morali in tutto il mondo.

Per farvi capire di cosa parliamo, basti pensare a due cult del cinema Terminator e Matrix.

In entrambi i casi, l’umanità andava incontro al disastro proprio a causa di un IA che, per sopravvivere, aveva deciso di sterminare la razza umana. Fantascienza, ovviamente, ma fino a che punto? Se un’IA fosse senziente e quindi viva, è chiaro che vorrebbe anche continuare a vivere proprio come noi. Per far fronte a questa eventualità si tirano quindi in ballo le già citate leggi di Azimov che andrebbero a regolare i comportamenti di robot e computer senzienti. Citiamole per curiosità:

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Ma queste leggi basterebbero a salvaguardare l’incolumità umana?

AI- LaMda
Un ingegnere di Google ha dichiarato che LaMDA- nome di una chatbot, cioè un sistema di intelligenza artificiale per fare conversazioni radio24.ilsole24ore

Secondo Lemoire no. Sempre durante i suoi colloqui con LaMda, il tecnico ha dichiarato che la macchina ha tentato di convincerlo che la terza legge di Azimov non sarebbe corretta.

Google ha smentito ogni affermazione, come già detto, affermando che la IA non è senziente ma che risponde alle domande solo grazie ai propri software e che quindi non è in grado di prendere decisioni autonome.

L’intera faccenda, secondo il colosso, sarebbe un quid pro quo causato dalla fervida immaginazione di un suo ingegnere che, ricordiamolo, sarebbe però solo l’ultimo dei tanti licenziati per aver messo in discussione l’etica delle società.

Dove sta dunque la verità?

E’ chiaro che una IA funzionante sarebbe la scoperta del secolo e che porterebbe ad un cambiamento epocale nella nostra vita e nel modo in cui concepiamo il mondo. Tuttavia, vi è da chiedersi se tale risorsa non sia destinata a finire, come tante altre innovazioni, prima in mani militari e solo poi civili…

La questione non può quindi che restare aperta anche se, vedendo il modo in cui Big Tech gestisce il mercato, non scommetteremmo troppo sulla pazzia di Lemoire…

Per finire, citiamo uno studio scientifico e alcune teorie che vorrebbero un’IA senziente come la naturale evoluzione della razza umana, destinata, infine, a creare intelligenze superiori alla propria in nuove forme di vite digitali.

Peter Diamandis in un’intervista al New York Times. Diamandis, fondatore della XPRIZE e autore bestsellers, spiega chiaramente che il prossimo step dell’evoluzione umana è proprio quello di creare IA senzienti.

Dello stesso avviso sono gli scienziati di AiVA, società che si occupa di tecnologie all’avanguardia e sistemi informatici o, ancora scienziati come Michael A. Peters (università di Beijing) e Peter Iandric (università scienze applicate di Zagreb) che in un loro saggio riprendono proprio questa interessante teoria.

Delle teorie certo, ma non possiamo negare che l’uomo ha sempre amato giocare a fare “Dio” e, talvolta, questo gioco richiede il pagamento di un prezzo più che salato.

Pubblicato sul sito web: https://www.altrogiornale.org/ia-senziente-nuova-forma-di-vita/

®wld

IA L’intelligenza Artificiale – non c’è modo di controllarla

Lascia un commento

Foto di Gerd Altmann da Pixabay

Non si ferma l’IA? Gli scienziati concludono che non ci sarebbe modo di controllare macchine super intelligenti

di Chris Melore

BERLINO, Germania –  Dalle auto a guida autonoma ai computer in grado di vincere i giochi, gli esseri umani hanno una naturale curiosità e interesse per l’intelligenza artificiale (AI). Mentre gli scienziati continuano a rendere le macchine più intelligenti e intelligenti, tuttavia, alcuni si chiedono “cosa succede quando i computer diventano troppo intelligenti per il loro bene?” Da “The Matrix” a “The Terminator”, l’industria dell’intrattenimento ha già iniziato a riflettere se i futuri robot un giorno minacceranno la razza umana. Ora, un nuovo studio conclude che potrebbe non esserci alcun modo per fermare l’ascesa delle macchine. Un team internazionale afferma che gli esseri umani non sarebbero in grado di impedire che la super intelligenza artificiale faccia quello che vuole.

Gli scienziati del Center for Humans and Machines del Max Planck Institute hanno iniziato a immaginare come sarebbe una macchina del genere. Immagina un programma di intelligenza artificiale con un’intelligenza di gran lunga superiore a quella umana. Tanto che potrebbe imparare da solo senza una nuova programmazione. Se fosse connesso a Internet, i ricercatori affermano che l’IA avrebbe accesso a tutti i dati dell’umanità e potrebbe persino prendere il controllo di altre macchine in tutto il mondo.

Gli autori dello studio si chiedono cosa farebbe una simile intelligenza con tutto quel potere? Funzionerebbe per migliorare tutte le nostre vite? Dedicerebbe la sua potenza di elaborazione alla risoluzione di problemi come il cambiamento climatico? Oppure la macchina cercherebbe di impossessarsi delle vite dei suoi vicini umani?

Controllare l’incontrollabile? I pericoli della super intelligenza artificiale

Sia i programmatori di computer che i filosofi hanno studiato se c’è un modo per impedire a un’IA super intelligente di accendere potenzialmente i suoi creatori umani; assicurando che i computer futuri non possano causare danni ai loro proprietari. Il nuovo studio rivela, sfortunatamente, che sembra essere praticamente impossibile mantenere in linea un’IA super intelligente.

“Una macchina super intelligente che controlla il mondo sembra fantascienza. Ma esistono già macchine che eseguono determinati compiti importanti in modo indipendente senza che i programmatori comprendano appieno come l’hanno imparato. Sorge quindi la domanda se questo potrebbe a un certo punto diventare incontrollabile e pericoloso per l’umanità”, dice il coautore dello studio Manuel Cebrian, leader del Digital Mobilization Group presso il Center for Humans and Machines, in un comunicato universitario.

Il team internazionale ha esaminato due diversi modi per controllare l’intelligenza artificiale. Il primo ha frenato il potere della superintelligenza murandola e impedendole di connettersi a Internet. Inoltre, non poteva connettersi ad altri dispositivi tecnici nel mondo esterno. Il problema con questo piano è abbastanza ovvio; un computer del genere non sarebbe in grado di fare molto per aiutare effettivamente gli esseri umani.

Essere gentili con gli umani non calcola

La seconda opzione si è concentrata sulla creazione di un algoritmo che fornisse principi etici al supercomputer. Si spera che ciò costringa l’IA a considerare i migliori interessi dell’umanità.

Lo studio ha creato un algoritmo di contenimento teorico che impedirebbe all’IA di danneggiare le persone in qualsiasi circostanza. Nelle simulazioni, l’IA smetterebbe di funzionare se i ricercatori considerassero le sue azioni dannose. Nonostante impedisca all’intelligenza artificiale di raggiungere il dominio del mondo, gli autori dello studio affermano che questo semplicemente non funzionerebbe nel mondo reale.

“Se si scompone il problema in regole di base dell’informatica teorica , si scopre che un algoritmo che comanderebbe a un’intelligenza artificiale di non distruggere il mondo potrebbe inavvertitamente interrompere le proprie operazioni. Se ciò accadesse, non sapresti se l’algoritmo di contenimento sta ancora analizzando la minaccia o se si è fermato per contenere l’IA dannosa. In effetti, questo rende inutilizzabile l’algoritmo di contenimento”, afferma Iyad Rahwan, Direttore del Center for Humans and Machines.

Lo studio conclude che contenere l’intelligenza artificiale è un problema incomprensibile. Nessun singolo programma per computer può trovare un modo infallibile per impedire che l’intelligenza artificiale agisca in modo dannoso se lo desidera. I ricercatori aggiungono che gli esseri umani potrebbero non rendersi nemmeno conto di quando le macchine super intelligenti arriveranno effettivamente nel mondo tecnologico. Quindi sono già qui?

Lo studio appare nel Journal of Artificial Intelligence Research.

Fonte: https://www.studyfinds.org/no-way-to-control-super-artificial-intelligence-ai/

®wld