Hola.
Vivimos una era emocionante,
en la que la innovación y la tecnología
tienen el potencial de lo inimaginable,
y se vuelve aún más inimaginable
al romper la brecha entre
la discapacidad y la capacidad.
El 15 % de la población mundial
--1000 millones de personas en el mundo--
vive con discapacidad,
lo que convierte a las personas con
discapacidad en la primera minoría.
Y no viven en un planeta diferente.
Puede que sean parte de nuestras
familias, amigos o colegas.
Hoy les hablaré de cómo las personas
con discapacidad del habla
tendrán una forma de comunicarse mejor.
Yo tenía 7 años cuando
nació mi hermana Amal.
Era demasiado joven para ver los desafíos
que enfrentaba mi familia a diario,
pero podía ver que Amal no podía
gatear, comer, ni hablar
como cualquier otro bebé de su edad.
Con el tiempo, nos acostumbramos
a criar un bebé con parálisis cerebral,
y a la vez entender sus patrones
y necesidades de comunicación especiales.
Nueve años más tarde,
mi familia fue bendecida
con otro bebé, Ahmad.
Ahmad decidió crecer exactamente
como su hermana Amal,
muy inteligente, agudo, curioso
por todo lo que le rodeaba,
pero también decidió inventar sus
patrones de comunicación especiales
para comunicarse con nosotros,
y para otras personas
que no podían entenderle,
teníamos que traducir.
Amal y Ahmad dicen "num"
cuando tienen hambre,
y dicen "ahh" para llamar
a Nora, mi hermana.
Y cuando quieren decir
mi nombre, dicen "abeya".
Para ir al baño, dicen "kkhh".
Nosotros entendemos gran parte de
sus patrones de comunicación especiales,
pero solo nosotros, el círculo íntimo.
Como sucede con casi todas las personas
que tienen voz no muy clara.
Una de esas personas es Urit.
Urit es una mujer de 34 años
que tiene parálisis cerebral.
Ella vive una vida independiente.
Puede conducir su auto, ir al gimnasio,
y hacer muchas cosas.
Sin embargo, cuando se trata
de comunicarse con la voz,
a veces, puede tornarse
más difícil que ir al gimnasio,
y más frustrante
porque se encuentra repitiendo
las mismas palabras una y otra vez
para que le entiendan.
Le pedimos a Urit que diga
algunas palabras en inglés.
Escuchémosla juntos
y vean si pueden entender
lo que trata de decir.
(Ininteligible)
No sé cuántos pudieron entenderle
esta primera vez,
pero escuchémosle otra vez,
y hagamos hincapié en tratar de entender
lo que trata de decir.
(Ininteligible)
Traten de memorizar lo que dijo;
volveremos a eso más tarde.
Con mis hermanos, y Urit,
y la gente conozco,
tuve la oportunidad de ver
un mundo de desafíos,
un mundo de personas especiales
con necesidades.
Y esto me permitió examinar
la tecnología existente
en busca de una respuesta para
lo que buscaban mis hermanos.
Por desgracia, el estado actual
del arte en tecnología asistida,
incluyendo aplicaciones de reconocimiento
del habla, no dio una respuesta.
Toda tecnología asistida
ignoraba estas voces,
y optamos por usar otras
formas de comunicación
reemplazando la voz
por símbolos e imágenes,
o movimientos del cuerpo
en la cabeza o en los ojos.
Esto me lleva a la otra leve
alternativa que hace uso de la voz
que son las aplicaciones
de reconocimiento de voz.
Esta tecnología funciona en dos enfoques.
El primer enfoque trata de descubrir
qué palabra se ha dicho.
El segundo enfoque se basa en fonemas.
Los fonemas son sonidos que
producimos con la boca y la nariz.
Ambos enfoques se basan
en modelos estadísticos
a partir de una gran base de datos
de discursos comunes.
Pero cuando el discurso no es común,
--cuando me alejo del estándar,
y es suficiente con hablar con acento
como nosotros aquí--
esto no funcionará.
Mis colegas y yo desarrollamos
un nuevo enfoque en tecnología asistida
que usa la voz de la persona
y puede entender patrones
de discurso no estándares,
con la misión de devolverle la voz
a personas con discapacidad del habla.
¿A quiénes le cambiará esto la vida?
A personas con parálisis cerebral,
a personas con Parkinson,
Miastenia Gravis,
y muchos otros trastornos neurológicos,
a personas nacidas con
discapacidades auditivas,
o a personas que de repente tuvieron
un ACV y eso les cambió la vida,
pero no solo a ellos.
No solo a las personas que tienen
dificultad para expresarse,
sino a todos los que interactúan
con ellos a diario.
Esto les facilitará la inclusión social
--porque todos queremos
ser incluidos socialmente--
Y ahora se podrán estar preguntando:
"¿Cómo funciona esto?"
"¿Cómo es que la tecnología de
reconocimiento de voz no hace lo mismo?"
Porque nuestra tecnología
funciona en forma diferente.
Cada persona tiene que
atravesar dos fases.
La primera fase se llama
fase de calibración,
en la que la persona tiene que entrenar
al dispositivo y a la aplicación
ingresando los patrones y creando
su propio diccionario.
Esta fase por lo general ocurre
con la persona que lo entiende mejor.
Juntos crearán el diccionario.
Esto usualmente lleva solo
de una a tres horas,
y depende de la capacidad
de habla del orador.
Luego de crear este diccionario,
pasamos a la segunda fase que
es la fase de reconocimiento.
La aplicación podrá reconocer
patrones del habla ininteligibles
a partir del diccionario predefinido
y traducirlos en voz clara
en tiempo real.
Nuestro enfoque depende del usuario
y es independiente del idioma
lo que significa que puede funcionar
en cualquier idioma del mundo,
incluso con idiomas inventados.
Aquí la clave es el
"reconocimiento de patrones".
Una vez que la persona crea su propio
diccionario y dice una palabra existente,
se hace el reconocimiento de patrones
entre lo dicho y lo existente.
Pero aquí encontramos un problema.
Vemos que las personas con
una discapacidad del habla
pronuncian distintas palabras
de manera similar.
Y el desafío era diferenciarlas.
Para eso creamos una tecnología
llamada "marco adaptativo".
El marco adaptativo puede adaptarse
a la amplitud del evento en el patrón.
Con la tecnología existente, podemos ver
la L y la A en el mismo marco.
Pero con la nueva tecnología, vemos que
la L y la A están en distintos marcos
lo que aumenta la precisión
del reconocimiento de patrones.
Y esto hace que nuestro reconocimiento
de patrones sea mucho mejor.
Supongo que aún recordarán a Urit, ¿no?
Escuchémosla otra vez ahora,
pero esta vez usando Talkitt:
(Ininteligible)
Ahora puedo...
(Ininteligible)
comenzar...
(Ininteligible)
a hablar libremente.
(Aplausos)
Talkitt dio solo un paso
para zanjar la brecha entre
discapacidad y capacidad
permitiendo que las personas
expresen su potencial.
Cuanto más desafiemos nuestras mentes,
más brechas se derribarán para
permitirnos hacer vidas normales.
Gracias.
(Aplausos)