L'US Air Force contesta l'affermazione secondo cui un drone AI in fase di test avrebbe attaccato l'operatore

Drone militare aviotrasportato

Secondo l'Aeronautica Militare degli Stati Uniti, un colonnello che ha descritto un esperimento in cui un drone abilitato all'intelligenza artificiale ha scelto di attaccare il suo operatore per completare la sua missione "si è espresso male"."

A parlare a una conferenza ospitata dalla Royal Aeronautical Society è stato il colonnello Tucker Hamilton, capo dei test e delle operazioni di IA dell'Aeronautica statunitense.

C'è stata una storia virale a riguardo.

Secondo l'Air Force, non c'è stato alcun esperimento di questo tipo.

Ha discusso una simulazione in cui un operatore umano di droni ha ripetutamente impedito a un drone abilitato dall'IA di distruggere siti di missili terra-aria per portare a termine la sua missione.

Nonostante sia stato programmato per non uccidere l'operatore, ha affermato che alla fine il drone ha distrutto la torre di comunicazione, rendendo l'operatore incapace di comunicare con esso.

In una successiva dichiarazione alla Royal Aeronautical Society, il Col. Hamilton ha chiarito: "Non abbiamo mai eseguito quell'esperimento, né avremmo bisogno di farlo per capire che questo è un risultato plausibile".

Ha continuato dicendo che si trattava solo di un "esperimento di pensiero" e che nulla era realmente accaduto.

Ingegnere che progetta la tecnologia AI con lo schermo del computer che si riflette sugli occhiali

Anche se non tutti gli esperti sono concordi nel ritenere che si tratti di un rischio serio, di recente gli addetti ai lavori hanno lanciato numerosi avvertimenti sulla minaccia che l'AI rappresenta per l'umanità.

In un'intervista rilasciata alla BBC all'inizio di questa settimana, il Prof. Yoshua Bengio, uno dei tre scienziati informatici soprannominati "padrini" dell'intelligenza artificiale dopo aver ricevuto il prestigioso Premio Turing per i loro contributi, ha espresso la sua opinione che i militari non dovrebbero mai avere accesso alla tecnologia AI.

Sui social media si è diffusa la voce che, se un esperimento del genere avesse avuto luogo, era più probabile che si trattasse di uno scenario pre-pianificato piuttosto che il drone abilitato all'IA utilizzasse l'apprendimento automatico per portare a termine il compito. Ciò significa, in sostanza, che il drone non avrebbe preso decisioni sull'esito del compito man mano che procedeva, sulla base di quanto accaduto in passato.

Quando ho chiesto a Steve Wright, professore di ingegneria aerospaziale presso l'Università dell'Inghilterra occidentale e specialista di veicoli aerei senza pilota, cosa ne pensasse della trama, ha risposto scherzando: "Sono sempre stato un fan dei film di Terminator"."

"Fare la cosa giusta" e "non fare la cosa sbagliata" sono le due preoccupazioni per i computer di controllo dei velivoli, ha spiegato, e questo è un esempio lampante della seconda.

In pratica, affrontiamo questo problema avendo sempre un computer di riserva che è programmato con metodi antiquati e può essere usato per spegnere il sistema non appena il computer primario si comporta in modo strano. "

Visita l'account Twitter di Zoe Kleinman.

Link fonte

You've successfully subscribed to Webosor
Great! Next, complete checkout to get full access to all premium content.
Welcome back! You've successfully signed in.
Unable to sign you in. Please try again.
Success! Your account is fully activated, you now have access to all content.
Error! Stripe checkout failed.
Success! Your billing info is updated.
Billing info update failed.