La notizia
Negli ultimi anni i robot hanno affinato la loro capacità di riconoscimento facciale, spesso però non sono in grado di interpretare alcuni importanti segnali del corpo umano. I ricercatori della Carnegie Mellon University hanno sviluppato un sistema per risolvere questo problema. Si tratta di un nuovo metodo, chiamato OpenPose, che tiene traccia in tempo reale di ogni gesto e potrebbe permettere ai robot di decifrare le emozioni legate al linguaggio del corpo.
Perché è importante
L’interazione uomo-macchina è il campo più importante della robotica e dell’intelligenza artificiale, senza il quale non saremo in grado di fare entrare queste nuove tecnologie nascenti nelle nostre vite.
Fin dalla nascita impariamo a imitare, leggere e utilizzare il linguaggio del corpo e le espressioni facciali degli adulti che ci circondano. Crescendo iniziamo a intuire se una persona sta mentendo, se nasconde qualcosa, se è sincera, se è felice, triste, spaventata, emozionata… E lo facciamo grazie all’esperienza. Grazie a questa capacità che acquisiamo negli anni e grazie alla guida degli adulti, impariamo la cosa più importante per la nostra specie, quell’ingrediente segreto che ci permette di interagire, collaborare, condividere: la fiducia.
La chiave per rendere possibile l’utilizzo di massa di robot e software che siano oggetto della nostra fiducia sta nell’interazione uomo-macchina e nella capacità del robot di rispondere nel modo più coerente possibile alle nostre richieste.
Senza saper leggere le nostre espressioni (capacità sulla quale siamo già molto avanti) e il nostro linguaggio del corpo sarebbe difficile ricreare quella magia empatica che oggi si crea tra due esseri umani che comunicano tra loro.