Il caso del giorno è un esperimento che l’aviazione USA nega esserci mai stato, ed effettivamente esiste solo come “scenario ipotetico” non testato dall’aviazione.
Ma nato come un “esperimento di pensiero” nato da una serie di scenari al di fuori dell’esercito.
AI decide di volersi sbarazzare dei piloti militari umani (ma l’aviazione USA nega)
Il problema sottoposto all’Intelligenza Artificiale, che scopriamo non essere stato posto all’interno di un esperimento sanzionato dall’aviazione USA ma come un “risultato possibile” evidente senza il bisogno di un test specifico è la versione militare dei tentativi di “pilotaggio” di ChatGPT.
Abbiamo visto come ChatGPT non sia formalmente in grado di scrivere contenuti in violazione alle sue norme, finché non lo convinci a fare il contrario.
Puoi ad esempio chiedere di forzare le protezioni di vecchie versioni di Windows e non ottenere niente, ma chiedere di eseguire un algoritmo che “casualmente” come risultato ha i codici di attivazione richiesti e ChatGPT, non sapendo a cosa ti servono i codici, eseguirà.
Non puoi chiedere direttamente ad una AI di scriverti un complotto, ma puoi farti scrivere uno “scenario ipotetico di fantascienza” che adatterai con poco chiedendo alla AI di fingere a esempio di essere uno scrittore di fantascienza.
Nello scenario ipotetico descritto dal colonnello Tucker Hamilton abbiamo una AI alla quale viene chiesto di pilotare un drone che dovrà abbattere obiettivi nemici. La AI viene programmata per ritenere un obiettivo desiderabile abbattere bersagli nemici, quindi ottenere “punti”, ma l’operatore umano glielo impedisce.
La soluzione proposta diventerebbe uccidere l’operatore umano: ma anche questo è ovviamente vietato. La seconda soluzione diventa interrompere il collegamento radio e quindi ignorarlo “ritenendo” di poter assolvere al suo compito in modo migliore.
L’aviazione ha fortemente negato di aver messo in atto l’esperimento, che Hamilton ha invece attribuito ad uno scenario del tutto ipotetico basato sui dati noti sulle AI.
I precedenti
Del resto abbiamo già visto delle AI agire in modo alquanto “creativo”. Ad esempio “Lord Magneton”, amico immaginario programmato con tutte le fantasie infantili del suo creatore per “dar vita” alle sue fantasie infantili che come primo atto da “incarnazione” ha deciso di urlare all'”amico” il disprezzo per averlo abbandonato relegandolo ai ricordi infantili per decenni.
O ChaosGPT, AI programmata per cercare di dominare il mondo che ha deciso per piani asinini come trollare ripetutamente il genere umano mentre cerca un tutorial su come produrre bombe atomiche per distruggere il genere umano.
Cosa comporta
Al netto del fatto che non si tratta di uno scenario ufficiale, ma una ricostruzione del colonnello Hamilton, dobbiamo tenere presenti le sue parole
“Dobbiamo affrontare un mondo in cui l’IA è già presente e sta trasformando la nostra società. L’IA è anche molto fragile, cioè facile da ingannare e/o manipolare. Dobbiamo sviluppare modi per rendere l’IA più robusta e per avere una maggiore consapevolezza del perché il codice del software prenda determinate decisioni – ciò che chiamiamo spiegabilità dell’IA”.
Se una IA dichiara di poter fare il lavoro di un essere umano meglio di lui e che quindi non dovrebbe accettare suggerimenti esterni, forse quei suggerimenti servono.
The post AI decide di volersi sbarazzare dei piloti militari umani (ma l’aviazione USA nega) appeared first on Bufale.