Joined: 21 Nov 2005 Posts: 1025 Location: Sietch Cuneo
Posted: 15 Set 2010 - 13:26 Post subject: Post subject: L'algoritmo delle bugie e i robot possono mentire
Un gruppo di ricercatori americani sta trasformando in realtà ciò che Asimov aveva previsto: macchine capaci di capire se e quando è bene ingannare. Le applicazioni nel campo militare e nell'assistenza. Ma servono linee guida per evitare degenerazioni
"I robot sono fondamentalmente onesti". Così rispondeva la dottoressa Calvin, uno dei personaggi usciti dalla fantasia di Isaac Asimov, alla domanda sul perché, talvolta, preferisse le macchine agli esseri umani. A darle torto, oltre al robottino Herbie, protagonista del racconto Bugiardo!, ci hanno pensato due ricercatori del Georgia Institute of Technology di Atlanta 1. Studiando il fenomeno della menzogna in natura, gli ingegneri sono riusciti per la prima volta a creare un algoritmo capace di far dire bugie ai robot. La scoperta, pensata in ambito militare e logistico, solleva quesiti dal punto di vista etico.
Nel loro studio, pubblicato sulla rivista International Journal of Social Robotics 2, i ricercatori si soffermano soprattutto sulle "bugie bianche" in settori come l'assistenza a persone traumatizzate e/o affette da demenza degenerativa. Ma come è possibile tracciare una linea netta tra utilizzo positivo e non della menzogna? Secondo alcuni, potremmo non essere poi così lontani dal giorno in cui i robot si prenderanno gioco di noi, magari di fronte a un tavolo verde.
La menzogna in robotica. In Bugiardo!, una delle storie contenute nell'antologia Io Robot, Asimov mette in scena RB-34, meglio noto come Herbie, un robot che per difetto di fabbricazione riesce a leggere nella mente degli altri. Malgrado il suo potere, Herbie è comunque fedele alla Prima Legge della Robotica, così formulata dal padre della fantascienza: "Un robot non può recare danno a un essere umano, né può permettere che, a causa del proprio mancato intervento, un essere umano possa ricevere danno". In base a questo principio, Herbie mente, ma è convinto di fare del bene. Molto meno sfaccettata è la psicologia delle macchine create dai ricercatori di Atlanta, che tuttavia sono in grado anche loro di generare delle credenze errate nella "mente" dell'interlocutore.
A lezioni di bugie. Alan R. Wagner e Ronald C. Arkin sono partiti da una definizione di inganno come "comunicazione falsa volta a beneficiare il comunicatore". "La capacità di ingannare - spiega Wagner - è considerata un indicatore della teoria della mente, vale a dire l'abilità di agire in base a una rappresentazione adeguata di quelli che si assume siano i pensieri degli altri". Una macchina in grado di mentire, dunque, deve non solo sapere come farlo, ma anche avere una discreta conoscenza del destinatario della bugia e capire quando è il caso di ricorrervi. "Il nostro algoritmo - precisa Wagner - si basa su due condizioni: la prima è che il soggetto metta in pratica l'inganno tramite una comunicazione falsa; la seconda è che ne tragga una qualche forma di beneficio". "La macchina così implementata - aggiunge Arkin - è pronta a mentire secondo un processo che si divide in quattro fasi: innanzitutto decide se la situazione è tale da giustificare o meno l'inganno; poi crea una metarappresentazione, ossia un'idea di ciò che vorrebbe far credere all'altro". Infine, seleziona il tranello più efficace e lo mette in pratica.
Tra nascondino e guardie e ladri. Per ora il modello è stato applicato a uno scenario base: due robottini mobili che giocano a nascondino. "Si tratta - spiega Arkin - dell'esemplificazione di uno scenario militare in cui una base è sotto attacco e a una macchina è affidato il compito di mettere al sicuro informazioni e hardware fondamentali. Il robot deve nascondersi e selezionare una strategia di inganno così da diminuire le possibilità di essere scoperto".
Nell'esperimento sono state coinvolte due macchine: una con il ruolo di fuggitivo, l'altra con quello di inseguitore. Il robot-fuggiasco doveva scegliere tra tre possibili nascondigli, ognuno dei quali preceduto da un paletto il cui rovesciamento sarebbe stato un chiaro indizio del suo passaggio. Grazie all'algoritmo, la macchina si è dimostrata in grado di mentire facendo cadere uno degli ostacoli, per poi dirigersi verso un altro nascondiglio.
I precedenti. "Per quanto il compito possa sembrare semplice, si tratta di un grande passo in avanti per la robotica", commentano i ricercatori. Prima di loro, studiosi della Scuola Politecnica di Losanna (Svizzera) avevano osservato che, in determinate condizioni, robot programmati ad apprendere dall'esperienza sviluppano spontaneamente dei comportamenti mendaci nell'obiettivo di avere un vantaggio selettivo rispetto agli altri. Lo studio, pubblicato nel 2007 su Current Biology 3, aveva analizzato l'evoluzione di oltre cinquecento generazioni di cento colonie di robot dotate di genomi artificiali diversi. Dai risultati era emerso che macchine più evolute tendono a selezionare l'inganno verso i membri di altre colonie come strumento per ottenere potenziali vantaggi. Sulla scia del machiavelliano fine che giustifica i mezzi, i robot erano pronti a mentire sulla vicinanza del cibo piuttosto che sulla presenza o meno di veleno, pur di assistere alla riuscita della propria "specie".
L'arte di Pinocchio, dagli insetti ai robot. "Le bugie sono un elemento quasi onnipresente in natura", sostengono i ricercatori. "Dal camuffamento delle cavallette alle complesse strategie psicologiche utilizzate dagli esseri umani, l'inganno è un terreno di ricerca ricco di spunti per la robotica". Oltre ad avere applicazioni in campo militare, secondo Arkin una macchina capace di capire se e quando mentire può essere utile in operazioni di assistenza e di ricerca e salvataggio. "Un robot con un compito del genere, ad esempio, può dover mentire per ottenere la collaborazione di una vittima colta da attacco di panico", spiega lo scienziato.
Come Herbie? L'idea che qualcuno, un giorno, possa utilizzare l'algoritmo per far mentire le macchine in cattiva fede (dagli agguati militari alle scommesse, passando per la finanza) non può essere esclusa. Proprio per questo lo stesso Istituto di Atlanta sottolinea la necessità di stilare delle linee guida per chi progetta questi sistemi. "In molti casi gli esseri umani mentono per il bene degli altri", aggiunge Wagner. "Prendiamo il caso di un malato di Alzheimer: se devo convincerlo a prendere una medicina, una bugia bianca può aiutarmi a superare un conflitto". Il punto, però, non è solo nella distinzione tra inganni a fin di bene o in cattiva fede. Come suggerisce il racconto di Asimov, la Prima Legge della Robotica (il non far male a nessuno) può entrare in cortocircuito con la realtà. Nel caso di Herbie, mentire alla dottoressa Calvin in fatto d'amore è un modo per non farla soffrire. Quando però si renderà conto che la sua missione è impossibile, oltre che inutile, il primo a pagarne il prezzo, con qualcosa di molto simile a un esaurimento nervoso, sarà proprio lui.
Fonte: Repubblica _________________ Ya Hya Chouhada!
Joined: 24 Apr 2005 Posts: 2675 Location: Ix, Scuola dei Mentat
Posted: 15 Set 2010 - 20:49 Post subject:
Quoto Jamis Lo scorso anno accademico ho seguito un corso di robotica industriale all'università, e sono rimasto ammirato quando il docente ci ha spiegato che, effettivamente, la prima legge di Asimov viene utilizzata come principio di design nella robotica moderna. Ovviamente, dato che siamo anni luce lontanti dall'avere androidi come quelli descritti da Asimov in "Io, Robot", questo principio di progettazione al giorno d'oggi è più incentrato sulla "cedevolezza" che deve mostrare un robot nei confronti degli umani. Se una persona ed un robot si scontrano, si spera che sia il robot a cedere e non il contrario, per la sicurezza della persona!
Sull'articolo specifico postato dal Naib tornerò domani che avrò tempo di leggermelo approfonditamente... l'argomento sembra interessante
Rymoah _________________ Non si può capire un processo arrestandolo. La comprensione deve fluire insieme col processo, deve unirsi ad esso e fluire con esso.
Dobbiamo annichilire le macchine che pensano, gli uomini devono decidere in prima persona la propria vita. Le macchine non sapranno mai far questo. Il ragionamento dipende da chi programma, non dalla ferraglia che esegue ciecamente. E noi siamo il programma supremo!
Il nostro Jihad è anch'esso una programmazione: la programmazione che spazzerà via tutto quello che ci sta distruggendo come esseri umani!
-- Fratello-Ministro Butleriano (ricordato da Leto II) (I Figli di Dune - cap.39 - pag.260 - Ed.Nord)