Nick Bostrom

Le macchine che pensano secondo Nick Bostrom

Molti intellettuali hanno risposto alla domanda annuale dell’organizzazione Edge: “Cosa pensi delle macchine che pensano?“. Le risposte sono state numerose e interessanti. Tra queste, vale la pena considerare quella di Nick Bostrom, filosofo svedese, professore alla Oxford University e direttore del Future of Humanity Institute che si occupa soprattutto di temi legati all’intelligenza artificiale (IA), al transumanesimo, alla nanotecnologia e al trasferimento della coscienza su dispositivi tecnologici.

 

Un argomento difficile

Bostrom precisa subito una cosa. Quello delle macchine che pensano è un argomento complesso e che spesso diamo dei giudizi affrettati sull’argomento. Poi passa a descrivere il suo punto di vista sulle macchine che pensano.

Le macchine attualmente sono messe molto male nel pensare (tranne che in alcuni ristretti settori).

  1. Probabilmente un giorno saranno migliori di noi in questo (le macchine sono già molto più forti e veloci di qualsiasi creatura biologica).
  2. Ci sono poche informazioni su quanto siamo lontani da quel punto, quindi dovremmo utilizzare una vasta distribuzione di probabilità su possibili date di arrivo della superintelligenza.
  3. Il passaggio dall’IA di livello umano alla superintelligenza sarà probabilmente più veloce rispetto al passaggio dai livelli attuali dell’IA all’IA di livello umano (anche se, a seconda dell’architettura, il concetto di ‘livello umano’ non può avere una grande quantità di senso in questo contesto).
  4. La superintelligenza potrebbe essere la cosa migliore o la cosa peggiore che potrà mai accadere nella storia umana, per ragioni che ho descritto altrove.

Secondo Bostrom, questo è un argomento difficile perché c’è un problema principale di fondo: conoscere le dinamiche predefinite e il livello di difficoltà nel controllarle. Gli studi recenti confermano che la complessità intorno a queste dinamiche sono enormi. “Tuttavia – continua Bostrom – è ancora presto e potrebbe risultare una qualche soluzione facile o che le cose si risolveranno senza alcuno sforzo particolare da parte nostra.“.

 

Cosa possiamo fare

Potrebbe sembrare che Bostrom sia alquanto pessimista circa gli sviluppi dell’intelligenza artificiale, ma non credo sia proprio così. Bostrom sembra adottare un approccio più analitico e preventivo nei confronti di questo tema. Tant’è vero che propone di “aumentare il piccolo ma fiorente settore di ricerca che si concentra sul problema del controllo della superintelligenza (studia questioni tipo come i valori umani possono essere trasferiti sul software).“.

Ma non solo. Bostrom propone anche di creare una sorta di grande gruppo di ricerca che possa anticipare i problemi futuri della superintelligenza ed evitare così ogni conseguenza negativa per gli esseri umani. “La ragione per insistere già da adesso è in parte quella di iniziare a progredire sul problema del controllo e in parte di reclutare le migliori menti di questo settore in modo che saranno già in posizione quando la natura della sfida prenderà una forma più chiara in futuro. Sembra che la matematica, l’informatica teorica e forse la filosofia siano i tipi di talento più necessari in questa fase.”.

 

Prepararsi per il futuro

Sappiamo che l’IA, e le tecnologie digitali in generale, progrediscono in modo esponenziale; sappiamo che oggi possiamo fare cose che ieri non tutti potevamo immaginare; ma sappiamo anche che in futuro potrà succedere di tutto, nel bene e nel male. Ecco perché dovremo farci trovare pronti nel caso in cui le cose prendano una brutta piega.  È questo il messaggio che Bostrom vuole trasmettere. Quindi non sono d’accordo con chi lo considera solo come un “pessimista” dell’evoluzione tecnologica.

È anche vero, però, che alcune volte è facile interpretare male le sue parole. Quando Bostrom parla di “controllo della superintelligenza”, ad esempio, è facile intendere questa espressione nel senso di “tenere a bada il cattivo di turno”. Ma il filosofo svedese vuole sottolineare una cosa in particolare. Sappiamo che l’IA nel corso degli anni raggiungerà altissimi livelli, ma non possiamo sapere con precisione quali potranno essere le conseguenze. Come ha detto nel suo intervento, è “Un argomento difficile”.

Bisognerebbe trovare il giusto equilibrio nelle teorie, soprattutto in queste materie. Ovviamente c’è e ci sarà sempre chi è più ottimista e chi meno, chi più entusiasta e chi meno. Ma credo che non si possono valutare questi fenomeni adottando un punto di vista a senso unico. Tra l’altro, credo che la creazione di un gruppo di menti eccezionali sia una grande idea. Un confronto tra grandi personalità scientifiche potrebbe generare discussioni interessanti e utili per il nostro futuro.


Anche altri esperti hanno risposto alla domanda “Cosa pensi delle macchine che pensano?”:

Fonte: edge
Immagine: Flickr


Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.