Ironman data entry & hardware control system -idea-

221767-the-emotiv-epoc--meeting-the-future-head-on---emotiv-testbench-right-wink

L’interfaccia pilota/macchina e, quindi, il sistema di input dei comandi della nostra armatura è molto articolato.
Innanzitutto tutti i movimenti  delle varie parti del corpo saranno comandati direttamente. Movendo un braccio o una gamba in un certo modo, la tuta deve effettuare quel movimento, assistito e potenziato. Questo è ottenibile tramite l’uso di servomotori, probabilmente elettrici per risparmiare peso. (diversi studi sono attivi da qualche anno, si pensi agli esoscheletri militari o le protesi robotiche per gambe e braccia).

Discorso a parte per l’attivazione dei propulsori per il volo o altri comandi sui sottosistemi. La mia idea è quella di gestire questi comandi direttamente con il pensiero, tramite una tecnologia come la cuffia emotiv epoc (qui un video molto bello, sottotitolato se volete). La gestione dei propulsori (accensione, spegnimento, potenza), per esempio,  diventerebbe così parte integrante del nostro corpo “esteso”, gestito dalla mente come gli altri movimenti.

Si potrebbe  anche integrare un sistema di riconoscimento vocale per chiedere a JARVIS di mostrare i dati che ci interessano etc, ma con una discreta abilità, e poche cose da controllare, potrebbe anche non essere necessario. In fondo il comando vocale viene usato nei film per esigenze cinematografiche.

Tutti i commenti sono benvoluti (dubbi sulla validità di una determinata soluzioni, voti a favore, proposte di soluzioni migliori). Ricordo che il progetto è ancora nella fase di idea, sicuramente approfondiremo dei concetti e ne elaboreremo di nuovi.

Annunci

11 risposte a “Ironman data entry & hardware control system -idea-

  1. Siete grandi :DD anche io prima di venire qua avevo pensato a una tecnologia simile a quelle delle cuffie emotiv epoc :)
    però avrei una domanda.. tecnicamente, come funzionano?
    grazie, siete mitici :D

  2. Anzi per questioni di semplicità sarei più propenso all’uso dei comandi vocali, tramite laringofono (che rende la voce più limpida e riconoscibile del microfono esterno) perchè a dire il vero quella del controllo “mentale” per il mio modo di pensare è davvero ancora fantascenza…;)

    Head Up display sarebbe poi molto simile a quello che attualmente va in dotazione (o andrà) a numerosi reparti di volo fra velivoli ad ala fissa e rotante, con informazioni proiettate direttamente sulla visiera a campo infinito (non c’è necessità di mettere a fuoco le scritte o il paesaggio separatamente) e con posibilità di lockare il target tramite eye-tracking da parte di un sensore puntato sulla pupilla del pilota (credo che i google glasses l’avranno ;) )

    • scusate, dimenticavo…il problema sono le dimensioni dell’apparato…e l’elmetto di ironmen è davvero microscopico rispetto ai sensori odierni (vedesi nuovo casco per l’Eurofighter 200, non quello dell’ F-35 poichè ha ulteriori sensori che aumentano le capacità visive ma che fanno diventare il pilota un capoccione assurdo)

  3. Rispondo ad entrambi :DD

    Come funziona la cuffia sensore:
    In pratica il nostro cervello emette costantemente diversi tipi di onde chiamate onde celebrali. Queste onde possono essere di diverso tipo e in gergo vengono chiamate onde delta, theta, alfa, beta e gamma, a seconda della loro frequenza.
    A seconda del tipo di attività che il nostro cervello svolge viene emesso un particolare schema di queste onde (per esempio se provo ad avvicinare un oggetto col pensiero ho un certo schema, se provo ad allontanarlo avrò un’ altro schema, se penso ad una torta un altro, se sorrido ancora un altro e così via).
    Per schema intendo una situazione DEFINITA della mia emissione di onde celebrali (tipo onde alfa di una certa ampiezza, onde gamma di un altra, frequenze definite etc) e ribadisco il concetto che ad ogni pensiero corrisponde un certo schema DEFINITO e SEMPRE UGUALE (a meno di una piccola/grande componente di rumore).
    Ebbene, la cuffia emotiv ha dei sensori che captano queste onde. Ciò significa che possiamo istruire un software a svolgere un determinato comando quando in input dalla cuffia riceve un certo schema.
    Ovviamente per una questione di logica, se ho un motore e voglio accenderlo e spegnerlo col pensiero farò in modo da associare il comando “accendi” con lo schema relativo al pensiero “accendi” e il comando “spegni” col pensiero “spegni”… ma la cosa non è prestabilita.
    Mi spiego meglio… al comando accendi o spegni posso associare qualsiasi schema di onde in fase di setup. Per esempio potrei far accendere il motore quando sorrido, quando mi gratto la testa, quando penso ad una torta o qualsiasi altra cosa. E’ la stessa cosa che impostare i tasti funzione della vostra tastiera: fn1 può fare una tra: spegnere il computer, metterlo in stand-by, alzare il volume, cambiare canzone, abbassare la luminosità etc a seconda di quello che decidiamo.

    La fase di setup risulta necessaria, ma non solo per questo motivo. L’altro motivo è che ogni persona ha uno schema celebrale diverso associato ad uno stesso pensiero. Quindi l’impostazione che va bene per me non va bene per te.
    Questa cosa non la ritengo svantaggiosa. Dal mio punto di vista introduce un bel sistema di sicurezza: Il congegno che voglio controllare risponde solo ai miei comandi! Nel caso della tuta di Iron Man questo è davvero importante.
    Nulla toglie che una stessa tuta può contemplare più schemi con la possibilità di switcharli a seconda dell’utilizzatore. Come selezionare un profilo su un videogioco per avere i comandi ad esso associati.

    Ps: questa risposta la scrivo in un nuovo post, probabilmente interessa a diverse persone ed è troppo grande per un commento xP

    Lorenzo: L’HUD integrato nel casco con eye-tracking è proprio quello a cui avevo pensato io :DD ma bisogna trovare il modo per produrre qualcosa di simile a basso costo! queste sono tecnologie militari che costano migliaia di euro :SS
    Per quanto riguarda il controllo vocale, secondo me è molto più difficile quello che il controllo mentale, e lo puoi capire dalla spiegazione di quest’ultimo che ho fatto.
    Il programma per il controllo vocale deve adattarsi a diversi timbri, tonalità e deve “capire” frasi intere composte da tante parole.
    Facendo un confronto è come se la cuffia emotive fosse un controllo vocale programmato per fare l’azione A se io dico “AAAAAAA” l’azione B se dico “BBBBBBBB” e così via. E’ elementare e probabilmente sviluppabile anche autonomamente. Come invece si sa, controlli vocali di alto livello non esistono ancora neanche tra le grandi software houses.

    • Scusate se mi intrometto ma vorrei aggiungere un particolare forse rilevante ai punti di debolezza dei comandi vocali, è il seguente : se mi trovo in una situazione simile a quelle del film, quando i nemici si trovano vicino all’armatura e vogliono che si apra, basterebbe che uno di essi dicesse “Apri” (ad esempio) e l’armatura si aprirebbe comunque, anche senza il volere di colui che la indossa; con emotiv invece l’armatura si aprirebbe soltanto quando “l’eroe” lo pensa. Per non parlare dei cambiamenti dei timbri da persona a persona, da situazione a situazione…(input troppo ampio e pieno di eccezioni da gestire = tempi di analisi e latenza nella risposta lunghi)

  4. grazie mille sei stato molto chiaro :D
    ma come facciamo a sviluppare tale tecnologia autonomamente?

    • Si tratta di prendere la cuffia emotiv e decodificare l’output che fornisce. Diciamo che bisogna crackare la cuffietta o il software ad essa associato per capire come lavora. Fatto questo può essere creato un software che permette di leggere l’output ed eventualmente di programmare la cuffia.
      Non bisogna fare tutto, un software modificato è già stato creato. Attualmente non ha molte funzioni, ma implementare è sicuramente più facile che creare da zero.

  5. ma poi lo metti un video su come viene??

    • Non servirà un video se viene come spero xP. Scherzi a parte, certo, metterò tanti video e tutti i tipi di materiale che può essere interessante per voi analizzare/vedere.

  6. per l’accensione della tuta e di tutto il suo “sistema operativo” si potrebbe utilizzare il riconoscimento delle impronte digitali…. per ovviare al problema dei disturbi sonori.

  7. io sono daccordo con lorenzo insomma ci vorrebbe un sistema operativo come siri che ad ‘ un comando vocale esegua il rispettivo funzione dell’armatura

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...