Hola. Vivimos una era emocionante, en la que la innovación y la tecnología tienen el potencial de lo inimaginable, y se vuelve aún más inimaginable al romper la brecha entre la discapacidad y la capacidad. El 15 % de la población mundial --1000 millones de personas en el mundo-- vive con discapacidad, lo que convierte a las personas con discapacidad en la primera minoría. Y no viven en un planeta diferente. Puede que sean parte de nuestras familias, amigos o colegas. Hoy les hablaré de cómo las personas con discapacidad del habla tendrán una forma de comunicarse mejor. Yo tenía 7 años cuando nació mi hermana Amal. Era demasiado joven para ver los desafíos que enfrentaba mi familia a diario, pero podía ver que Amal no podía gatear, comer, ni hablar como cualquier otro bebé de su edad. Con el tiempo, nos acostumbramos a criar un bebé con parálisis cerebral, y a la vez entender sus patrones y necesidades de comunicación especiales. Nueve años más tarde, mi familia fue bendecida con otro bebé, Ahmad. Ahmad decidió crecer exactamente como su hermana Amal, muy inteligente, agudo, curioso por todo lo que le rodeaba, pero también decidió inventar sus patrones de comunicación especiales para comunicarse con nosotros, y para otras personas que no podían entenderle, teníamos que traducir. Amal y Ahmad dicen "num" cuando tienen hambre, y dicen "ahh" para llamar a Nora, mi hermana. Y cuando quieren decir mi nombre, dicen "abeya". Para ir al baño, dicen "kkhh". Nosotros entendemos gran parte de sus patrones de comunicación especiales, pero solo nosotros, el círculo íntimo. Como sucede con casi todas las personas que tienen voz no muy clara. Una de esas personas es Urit. Urit es una mujer de 34 años que tiene parálisis cerebral. Ella vive una vida independiente. Puede conducir su auto, ir al gimnasio, y hacer muchas cosas. Sin embargo, cuando se trata de comunicarse con la voz, a veces, puede tornarse más difícil que ir al gimnasio, y más frustrante porque se encuentra repitiendo las mismas palabras una y otra vez para que le entiendan. Le pedimos a Urit que diga algunas palabras en inglés. Escuchémosla juntos y vean si pueden entender lo que trata de decir. (Ininteligible) No sé cuántos pudieron entenderle esta primera vez, pero escuchémosle otra vez, y hagamos hincapié en tratar de entender lo que trata de decir. (Ininteligible) Traten de memorizar lo que dijo; volveremos a eso más tarde. Con mis hermanos, y Urit, y la gente conozco, tuve la oportunidad de ver un mundo de desafíos, un mundo de personas especiales con necesidades. Y esto me permitió examinar la tecnología existente en busca de una respuesta para lo que buscaban mis hermanos. Por desgracia, el estado actual del arte en tecnología asistida, incluyendo aplicaciones de reconocimiento del habla, no dio una respuesta. Toda tecnología asistida ignoraba estas voces, y optamos por usar otras formas de comunicación reemplazando la voz por símbolos e imágenes, o movimientos del cuerpo en la cabeza o en los ojos. Esto me lleva a la otra leve alternativa que hace uso de la voz que son las aplicaciones de reconocimiento de voz. Esta tecnología funciona en dos enfoques. El primer enfoque trata de descubrir qué palabra se ha dicho. El segundo enfoque se basa en fonemas. Los fonemas son sonidos que producimos con la boca y la nariz. Ambos enfoques se basan en modelos estadísticos a partir de una gran base de datos de discursos comunes. Pero cuando el discurso no es común, --cuando me alejo del estándar, y es suficiente con hablar con acento como nosotros aquí-- esto no funcionará. Mis colegas y yo desarrollamos un nuevo enfoque en tecnología asistida que usa la voz de la persona y puede entender patrones de discurso no estándares, con la misión de devolverle la voz a personas con discapacidad del habla. ¿A quiénes le cambiará esto la vida? A personas con parálisis cerebral, a personas con Parkinson, Miastenia Gravis, y muchos otros trastornos neurológicos, a personas nacidas con discapacidades auditivas, o a personas que de repente tuvieron un ACV y eso les cambió la vida, pero no solo a ellos. No solo a las personas que tienen dificultad para expresarse, sino a todos los que interactúan con ellos a diario. Esto les facilitará la inclusión social --porque todos queremos ser incluidos socialmente-- Y ahora se podrán estar preguntando: "¿Cómo funciona esto?" "¿Cómo es que la tecnología de reconocimiento de voz no hace lo mismo?" Porque nuestra tecnología funciona en forma diferente. Cada persona tiene que atravesar dos fases. La primera fase se llama fase de calibración, en la que la persona tiene que entrenar al dispositivo y a la aplicación ingresando los patrones y creando su propio diccionario. Esta fase por lo general ocurre con la persona que lo entiende mejor. Juntos crearán el diccionario. Esto usualmente lleva solo de una a tres horas, y depende de la capacidad de habla del orador. Luego de crear este diccionario, pasamos a la segunda fase que es la fase de reconocimiento. La aplicación podrá reconocer patrones del habla ininteligibles a partir del diccionario predefinido y traducirlos en voz clara en tiempo real. Nuestro enfoque depende del usuario y es independiente del idioma lo que significa que puede funcionar en cualquier idioma del mundo, incluso con idiomas inventados. Aquí la clave es el "reconocimiento de patrones". Una vez que la persona crea su propio diccionario y dice una palabra existente, se hace el reconocimiento de patrones entre lo dicho y lo existente. Pero aquí encontramos un problema. Vemos que las personas con una discapacidad del habla pronuncian distintas palabras de manera similar. Y el desafío era diferenciarlas. Para eso creamos una tecnología llamada "marco adaptativo". El marco adaptativo puede adaptarse a la amplitud del evento en el patrón. Con la tecnología existente, podemos ver la L y la A en el mismo marco. Pero con la nueva tecnología, vemos que la L y la A están en distintos marcos lo que aumenta la precisión del reconocimiento de patrones. Y esto hace que nuestro reconocimiento de patrones sea mucho mejor. Supongo que aún recordarán a Urit, ¿no? Escuchémosla otra vez ahora, pero esta vez usando Talkitt: (Ininteligible) Ahora puedo... (Ininteligible) comenzar... (Ininteligible) a hablar libremente. (Aplausos) Talkitt dio solo un paso para zanjar la brecha entre discapacidad y capacidad permitiendo que las personas expresen su potencial. Cuanto más desafiemos nuestras mentes, más brechas se derribarán para permitirnos hacer vidas normales. Gracias. (Aplausos)