Novità e trend

Panasonic Educational Partner: l'apocalisse ha le dimensioni di un pallone da calcio

Dominik Bärlocher
6.9.2017
Traduzione: tradotto automaticamente

Moriremo tutti. I robot arriveranno e ci finiranno. L'ultima minaccia si chiama Panasonic Educational Partner ed è un affascinante prototipo che può e vuole fare molto, ma fa davvero paura.

L'IFA di Berlino non si limita a presentare nuovi prodotti che saranno presto in vendita. Qua e là verrà mostrata una tecnologia che non esiste ancora. O che non esisterà ancora per un po'. Uno di questi prototipi è il Panasonic Educational Partner, che non solo fissa l'asticella della tecnologia, ma innalza anche il fattore inquietudine a livelli inimmaginabili.

Ma prima di invocare l'idea di un nuovo prodotto, non posso che dire che il mio è un progetto che non ha nulla a che fare con la tecnologia.

Ma prima di invocare l'apocalisse dei robot e proclamare a gran voce che siamo tutti destinati a morire, ti spiego come funziona l'Educational Partner. E ti spiegherò anche perché spero che i robot non ci uccidano tutti.

Il futuro in forma di calcio

L'Educational Partner di Panasonic è piccolo, compatto e di colore neutro. È una sfera delle dimensioni di un pallone da calcio. La palla è composta da tre elementi.

Piano abbozzato dell'Educational Partner

Sensori come telecamere, microfoni e sensori ambientali sono installati nelle partizioni laterali. La sezione centrale è in vetro lattiginoso e serve come mezzo di locomozione per la testa del robot e come superficie di visualizzazione per il volto. Per rendere l'Educational Partner un po' più umano, ma non troppo, ha un volto simile a un emoji, che è animato e ha lo scopo di antropomorfizzare il dispositivo. Dietro di esso ci sono microfoni, LED e una grande potenza di calcolo.
Il Partner Didattico dovrebbe essere in grado di fornire un'immagine più umana, ma non troppo.
L'Educational Partner dovrebbe un giorno diventare un compagno per i bambini dai tre ai sei anni. È qui che il dispositivo diventa davvero interessante, perché il pallone sorridente, che parla con una voce da bambino con una leggera pronuncia, sarà collegato a tutti i tipi di servizi cloud. Questi sono pensati per tenerlo costantemente informato sulle nuove opportunità di gioco, sulle scoperte e sui dati medici e su un'infinità di altre cose.

"Il Partner Educativo è un dispositivo che parla al bambino con una voce leggermente biascicata.

"Il Partner Educativo è progettato per instillare nel bambino forti valori morali ed etici", dice una voce fuori campo durante una presentazione. La presentazione sullo schermo fornisce un esempio di alimentazione sana. Il partner educativo racconta una storia che essenzialmente recita così: "Mangia le carote e diventerai forte come l'uomo carota".

Come mamma e come bambino, il partner educativo è stato progettato per inculcare al bambino forti valori morali ed etici.

Come mamma o papà, non devi nemmeno essere nella stessa stanza del tuo bambino per adempiere ai tuoi doveri di genitore grazie al Partner educativo. Il pallone può scattare regolarmente foto della tua prole e inviarle al tuo smartphone. Poiché il piccolo robot è collegato ai database medici, dovrebbe anche essere in grado di diagnosticare autonomamente alcune cose e, come minimo, di inviare un avviso "Porta tuo figlio dal medico" se i dati del bambino si discostano da una linea di base.

Perché moriremo tutti

Il simpatico robot biascicante è inquietante. Nonostante la sua voce infantile, la sua voce sembra artificiale. Lo stile di alcune frasi è sbagliato, le faccine emoji non sempre corrispondono a ciò che viene detto. Parla di valori morali ed etici e fa una faccina ammiccante. Non è direttamente affidabile.

Mi viene da pensare che la testa del robot rotante sia dotata di un'ampia tecnologia di sorveglianza. Non solo una telecamera, ma probabilmente anche sensori biometrici e altri lettori di dati ambientali. Con la produttrice del video Stephanie Tresch scherzo sul fatto che probabilmente Panasonic sta installando dei coltelli che accoltelleranno tutti non appena inizierà l'apocalisse. È impossibile verificare l'esatta configurazione hardware, poiché non ci sono porte o vie d'accesso al funzionamento interno della palla. Almeno, non a prima vista.

"Non ci sono porte o vie d'accesso all'interno della sfera.

"Pagheremo anche i robot che compreremo per ucciderci in casa", dico. Un uomo accanto a me inizia a ridere. Stephanie riprende il tutto con la telecamera, ma dice che la ripresa è pessima perché deve ridere insieme a lui.

In realtà, però, l'acquisto di un robot come l'Educational Partner comporta una serie di rischi. Che cosa succederebbe se terzi accedessero a uno dei servizi con cui comunica l'inquietante testa del robot? Improvvisamente si ricevono consigli del tipo "Scuoti il tuo bambino per farlo smettere di piangere", che in realtà sono crudelmente sbagliati, ma poiché il robot si fida del servizio e i genitori si fidano del goffo robot che si dimena avanti e indietro in modo così dolce quando parla... il disastro è assicurato.

L'unica mitigazione possibile è che il robot sia in grado di fornire un'assistenza adeguata.

L'unica attenuazione è che il robot limiti la sua diagnostica medica e fornisca solo dati semplici come "La temperatura del bambino è elevata. Si rivolga a un medico". Ma sappiamo entrambi che non si fermerà qui. Perché noi umani abbiamo la tendenza a esagerare queste cose. E perché non dovremmo? Il piccolo robot offre troppe possibilità cool. Il geek tecnologico che è in me sa che non sfruttarle sarebbe uno spreco totale.

Dobbiamo anche chiederci se vogliamo davvero affidare l'educazione dei nostri figli a un piccolo robot. Dove dovrebbe trovare le prime storie di avventure selvagge un bambino di tre anni? Da una scatola che parla solo dell'Uomo Carota in modo educativamente valido o anche di sciocchezze umane sui pirati spaziali? Cosa succederà ai nostri figli quando cresceranno tutti con storie sull'Uomo Carota? Saranno già standardizzati all'asilo? Parleranno tutti di Panasonic, cresceranno con il marchio e saranno emotivamente legati a una grande azienda per il resto della loro vita? Non ho le risposte a queste domande e credo che nessuno le abbia ancora. Ma ora che una testa di robot sta cercando di crescere dei bambini su un tavolo davanti agli occhi del mondo, penso che dobbiamo porci queste domande.

"E la cosa potrebbe essere armata di coltelli", aggiungo. Stephanie sbaglia di nuovo la ripresa. Dopo sei giorni all'IFA, siamo decisamente troppo stanchi per una discussione seria sui rischi della sicurezza informatica nel caso dei robot educativi.

Perché tutti noi dobbiamo essere in grado di rispondere a queste domande?

Perché non moriremo tutti

L'intero scenario dei coltelli incorporati è ovviamente senza senso. Tuttavia, una pallina così innocua nasconde molti pericoli per la vita, gli arti e, in una certa misura, l'umanità. Gli autori ci hanno pensato a lungo. Io sono uno di quelli che pensa che il discorso "l'autore aveva previsto una cosa" non abbia senso. Perché la finzione è solo questo, finzione.

  • Un possibile scenario che prevede l'imprinting delle grandi aziende è stato descritto dall'autore Max Barry nel suo romanzo "Jennifer Government"
  • La costante sorveglianza è stata affrontata da Dave Eggers con scarso impatto emotivo in "The Circle"
  • L'indottrinamento e, soprattutto, il controllo sono il tema principale di "1984" di George Orwell.

Quando si parla di robotica, tuttavia, l'autore di fantascienza Isaac Asimov è stato un leader di pensiero, se si può definire un autore di narrativa un leader di pensiero. Nel suo racconto "Runaround", scrisse tre leggi che ogni robot deve rispettare. Queste sono ancora oggi più o meno lo standard nello sviluppo dell'intelligenza artificiale.

  1. Un robot non deve danneggiare un essere umano o permettere che venga fatto del male a un essere umano attraverso l'inazione.
  2. Un robot deve obbedire ai comandi impartiti da un essere umano, a meno che tali comandi non siano in conflitto con la regola uno.
  3. Un robot deve proteggere la propria esistenza, a patto che tale protezione non sia in conflitto con la regola uno o la regola due.

Nel 1975, Asimov ha poi mitigato un po' le leggi e ha aggiunto la parola "consapevolmente" alla prima regola. Ciò significa che un robot non può consapevolmente ferire un essere umano o assistere consapevolmente al ferimento di un essere umano. Nel 1985 aggiunse anche la "terza" legge, che proibisce a un robot di danneggiare l'umanità in quanto collettività.

Quindi, anche se fosse armato di coltelli, il Partner Educativo non sarebbe autorizzato a usarli per pugnalare te e/o la tua prole in faccia quando sei distratto o addormentato fino a quando i suoi sensori biodati non rilevano il completo dissanguamento. Ma questo non impedisce al piccolo robot di mettere le pulci nelle orecchie dei bambini. Dopotutto, se in generale trasmette i messaggi di buone intenzioni di Panasonic e/o di partner selezionati, non sta infrangendo alcuna legge. Il pericolo non viene solo dagli hacker che vogliono ingannare i bambini, ma anche dal produttore. Qualche milione qui o là per uno slogan su un argomento... chi può resistere? E comunque, se va bene che il partner educativo parli di carote, perché non dovrebbe andare bene che dica "le carote di Nestlé sono buonissime"? È quasi la stessa cosa, no?

Alla fine di questo ragionamento, Stephanie Tresch punta la telecamera sul volto della testa del robot e io tengo il microfono nelle vicinanze della bocca animata e mi chiedo se l'oratore sia davvero lì. L'Educational Partner oscilla avanti e indietro, biascicando e dopo la ripresa, la palla di plastica bianca viene nuovamente coperta da una campana di perspex. Il Team digitec se ne va con le schede di memoria piene e le batterie scariche. Non abbiamo risposte, ma molte domande e una sensazione di disagio, anche se scherziamo sul nostro destino imminente.

A 8 persone piace questo articolo


User Avatar
User Avatar

Giornalista. Autore. Hacker. Sono un contastorie e mi piace scovare segreti, tabù, limiti e documentare il mondo, scrivendo nero su bianco. Non perché sappia farlo, ma perché non so fare altro.

1 commento

Avatar
later