Lug 11 2017

Nuovo studio sulla futura “rivoluzione sessuale robotica”

.

.

.

Sex robot, rivoluzione piena di incognite

Un nuovo studio affronta i rischi e le potenzialità della “rivoluzione sessuale robotica” prossima ventura, ipotizzando un mondo in cui sex robot pienamente funzionanti potrebbero integrarsi a vari livelli nei rapporti (sessuali) umani.

di Alfonso Maruccia

L’arrivo di una società in cui esseri umani e androidi dalle funzionalità avanzate possano in qualche modo convivere viene dato per scontato un po’ da tutti, e gli esperti di Responsible Robotics si sono già portati avanti con il lavoro analizzando in dettaglio le conseguenze di un’adozione..di..massa..dei..cosiddetti..“sex.robot”.

Nello studio dal nome (più che) autoesplicativo “Il nostro futuro sessuale con i robot“, il professore di intelligenza artificiale e robotica alla Sheffield University Noel Sharkey e colleghi provano ad affrontare argomenti che al momento sono considerati a dir poco scabrosi. Il tutto, ovviamente, per preparare la società a tecnologie che potrebbero arrivare anche prima del previsto.

Al momento le corporation specializzate nella produzione di “sex robot” sono pochissime (Android Love Doll, Sex Bot, True Companion), mentre i succitati robot non offrono molto di più di forme anatomiche realistiche, pelle in silicone e tutti gli accessori del caso.

Alcune di queste società stanno al momento valutando l’introduzione di modelli capaci di parlare e di muoversi, e un’eventuale adozione di massa dei nuovi prodotti potrebbe forse portare all’abbattimento di costi che al momento vanno dai 5.000 ai 15.000 dollari per esemplare.

Quello che interessa a Sharkey è soprattutto lo studio dei possibili impieghi di robot pienamente funzionanti e molto più umani delle attuali bambole in silicone: un sex robot potrebbe funzionare da prostituta nelle case d’appuntamento, spiegano i ricercatori, servire da “compagno sintetico” per persone sole o anziane, agire da aiuto fondamentale per la riabilitazione sessuale di vittime di abusi o traumi, ma anche da terapia per chi è affetto da pulsioni socialmente inaccettabili come fantasie di violenza sessuale su adulti e bambini.

Argomenti scabrosi, appunto, ma che secondo i ricercatori è necessario affrontare per non essere impreparati alla rivoluzione dei sex robot prossima-ventura: come ci si dovrebbe comportare nei confronti di chi dice, già oggi, di servirsi delle sex doll per placare i suoi istinti di predatore sessuale di minori? I sex robot con fattezze da bambini dovrebbero essere messi al bando o accettati nella loro funzione terapeutica? E le sex robot con fattezze femminili non potrebbero portare a una ulteriore “oggettificazione” della donna in una società dove la parità dei generi è ancora utopia?

La produzione dei primi modelli di sex robot capaci di interagire naturalmente con gli esseri umani è ancora di là da venire, rassicura in ogni caso Sharkey, e le problematiche affrontate nel nuovo studio rimarranno probabilmente una questione di nicchia per almeno altri 50 anni. Ma prima o poi se ne dovrà parlare molto seriamente.

.

.

Fonte: Punto Informatico

.

.

.

.


Feb 19 2016

Datagate – Snowden: “Skynet, software dell’NSA, ha identificato migliaia d’innocenti come terroristi”

.

.

Skynet

.

Skynet, AI poco intelligente e tanto colpevole

Migliaia di innocenti sarebbero finiti per essere identificati come terroristi dal programma utilizzato dalla NSA per l’antiterrorismo in Pakistan

di Claudio Tamburrino

Skynet, il programma di intelligenza artificiale sviluppato dalla US National Security Agency (NSA) ed utilizzato per l’individuare potenziali terroristi, avrebbe rilevato migliaia di falsi positivi.

Come affermano alcuni dei documenti rivelati nell’ambito del Datagate da Edward Snowden, Skynet è il nome scelto da NSA citando la serie Terminator per contrassegnare un programma segreto utilizzato per l’identificazione di potenziali comportamenti terroristici. Per farlo sfrutta i metadati delle comunicazioni telefoniche mobile, ma non sembra per esempio tenere in considerazione fattori contingenti come potrebbe essere il caso del giornalista di Al Jazeera Ahmad Muaffaq Zaidan, indicato da Skynet come membro di Al Qaeda, ma che ha sempre negato la sua presunta partecipazione all’organizzazione terroristica e che per il suo lavoro di giornalista deve tenere contatti diretti con le fonti all’interno della stessa.

Skynet, per le sue individuazioni induttive di terroristi, infatti, utilizza una triangolazione analitica basata su una serie di fattori tra cui le chiamate del cellulare personale del soggetto, la sua localizzazione, l’attività sui social media e gli spostamenti: basta pensare al caso del giornalista pakistano di Al Jazeera per intuire le falle nel sistema.

Ora, secondo quanto riferisce un rapporto di Ars Technica che ha analizzato i numeri compresi nei documenti NSA relativi a Skynet, tale ragionamento va fatto su tutti i casi affrontati dall’AI soprattutto considerando che la stessa Agenzia riferisce che il programma ha una percentuale di falsi positivi pari allo 0,008 per cento.

Per quanto tale percentuale appaia marginale, se si considera che il Pakistan ha una popolazione di 182 milioni di persone e che la NSA ha informazioni su telefonate di circa 55 milioni di persone nel Paese, non si può non considerarla una cifra considerevole. Inoltre, come Ars segnala, in altri test comunicati da NSA si parla di un tasso di errore dello 0,18 per cento, che porterebbe a circa 99mila persone su 55 milioni male identificate. E se anche solo il 50 per cento fosse stato individuato ed arrestato o addirittura eliminato, significherebbe che migliaia di innocenti sono vittime dell’intelligence a stelle e strisce. E anche con la più ottimistica percentuale dello 0,008 si tratterebbe di numerosi innocenti.

Ancora più preoccupante la modalità di calcolo di tale percentuale: NSA si è basata sulle presunzioni fatte sulla base di 100mila profili casuali e 7 appartenenti terroristi noti: la percentuale non è stata invece verificata sulla base di nuove informazioni che avrebbero potuto dimostrare se il sistema fosse sufficientemente efficiente per elaborare risultati in situazioni nuove.

.

Fonte: Punto Informatico

.

.

.

.