[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[Disarmo] "No ai robot killer", Musk, Hawking e Wozniak contro la tecnologia che uccide




Una lettera per avvertire dei rischi dello sviluppo dell'intelligenza artificiale in ambito militare è stata firmata da oltre 1.000 esperti nel settore tecnologico e scientifico, inclusi Stephen Hawking, Elon Musk e Steve Wozniak. La missiva, presentata nel corso della International Joint Conference on Artificial Intelligence di Buenos Aires, richiede la messa al bando dei sistemi d'attacco autonomi.

"La tecnologia dell'intelligenza artificiale ha raggiunto un punto nel quale l'impiego di questi sistemi è, a livello pratico se non legale, fattibile nel giro di anni, non di decenni", si legge nella lettera. "E la posta in gioco è alta: le armi autonome sono state descritte come la terza rivoluzione nella tecnologia bellica, dopo la polvere da sparo e le armi nucleari". 

Nel testo viene messo in luce come il fatto di non portare soldati sul campo di battaglia per chi attacca possa avere una connotazione sia positiva, per il fatto di ridurre le vittime, che negativa, in quanto verrebbe meno un freno alla decisione di attaccare: "La questione chiave per l'umanità è se iniziare o meno una corsa globale alle armi con intelligenza artificiale. Se una qualsiasi grande potenza militare dovesse procedere con lo sviluppo, una corsa agli armamenti globale sarà virtualmente inevitabile, ed il punto finale di questa traiettoria tecnologica è ovvio: le armi autonome diventeranno i Kalashnikov di domani".

"A differenza delle armi nucleari, queste tecnologie non richiedono materiali grezzi costosi o difficili da ottenere, quindi diventeranno onnipresenti ed economiche per tutte le potenze militari significative da produrre in massa", prosegue la lettera. "Sarà soltanto questione di tempo prima che appaiano sul mercato nero e nelle mani di terroristi, di dittatori desiderosi di controllare meglio la propria popolazione, di signori della guerra che vogliono mettere in atto una pulizia etnica. Le armi autonome sono ideali per compiti come omicidi, destabilizzare nazioni, sottomettere popolazioni ed uccidere selettivamente un particolare gruppo etnico. Crediamo quindi che una corsa agli armamenti con intelligenza artificiale non sarebbe di beneficio per l'umanità".

Non è la prima volta che importanti esponenti del campo tecnologico e scientifico si espongono in prima persona per avvertire dei rischi dell'intelligenza artificiale. Elon Musk, l'uomo dietro Tesla Motors, PayPal e SpaceX, alcuni mesi fa si era dichiarato  "sempre più incline a pensare che ci debba essere una qualche supervisione regolatoria, forse a livello nazionale o internazionale, proprio per essere sicuri che non faremo qualcosa di molto stupido.  Con l'intelligenza artificiale stiamo invocando il demonio . Avete presente quelle storie dove c'è il tipo col pentacolo e l'acqua santa del tipo: 'Certo, sicuro che si può controllare il demonio'? Non funziona".

Anche il più celebre scienziato vivente, Stephen Hawking,  ha voluto avvertire del fatto che l'intelligenza artificiale rappresenta a suo parere "una minaccia per l'umanità", dal momento che "mentre l'impatto a breve termine dell'intelligenza artificiale dipende da chi la controlla,  quello a lungo termine dipende dal fatto se sia controllabile o meno. Il nostro futuro è quello di essere una razza che si trova tra il crescente potere della tecnologia e la saggezza necessaria per utilizzarla".

Anche il co-fondatore di Apple, Steve Wozniak, ha parlato di quelli che a suo parere sono i rischi dello sviluppo dell'intelligenza artificiale, ma sottolineando comunque la sua fiducia nel fatto che, quando tra centinaia di anni robot e computer supereranno l'uomo, si riuscirà comunque a stabilire un equilibrio: "A quel punto saranno così intelligenti che avranno capito di dover mantenere la natura, e gli esseri umani sono parte della natura. Ho superato la mia paura per il fatto di essere sostituiti dai computer: ci aiuteranno".

E in effetti, anche nella lettera vengono messe in luce le applicazioni positive di questa tecnologia, che non va certo bandita in toto, ma solamente per quanto rigarda le applicazioni militari: "Proprio come la maggior parte dei chimici e dei biologi non hanno interesse a costruire armi chimiche e biologiche, la maggior parte de ricercatori nel campo dell'intelligenza artificiale non hanno interesse nel costruire queste armi", si spiega nella lettera.

"E non vogliono neanche che altri infanghino il loro campo, creando potenzialmente una grande reazione negativa pubblica contro l'intelligenza artificiale, che possa ridimensionare i suoi futuri benefici per la società. Infatti, chimici,  biologi hanno largamente supportato gli accordi internazionali che con successo hanno proibito le armi chimiche e biologiche. In definitiva, crediamo che l'intelligenza artificiale abbia un grande potenziale dal quale l'umanità può trarre beneficio in molti modi, e che l'obiettivo di questo campo dovrebbe essere quello di far questo. Iniziare una corsa agli armamenti con intelligenza artificiale è una cattiva idea, e dovrebbe essere evitata per mezzo di un divieto sulle armi d'attacco autonome prive di un significativo controllo umano".

http://it.ibtimes.com/no-ai-robot-killer-musk-hawking-e-wozniak-contro-la-tecnologia-che-uccide-1411216