-->

Vídeo del MES

Tip para callar a las mujeres religiosas CHISMOSAS

lunes, 7 de marzo de 2011

Las computadoras te entenderán mucho mas

  • Pin It




¿Alguna vez deseaste que tu computadora sea más amigable y que te entendiera mejor? ¿Algo así como ese amigo comprensivo, Google incluido, que intuye de antemano tus necesidades y te brinda una respuesta antes de que hagas la pregunta? Pues, precisamente en construir una máquina así es que trabaja el investigador Lijun Yin, en la imagen, de la Universidad de Binghampton en Nueva York.

Yin desea dotar a las computadoras con más formas de percibir que tan sólo el teclado, el ratón y los paneles de tacto, él quiere que las computadoras comprendan mejor los estímulos externos expresados todo el tiempo por los humanos, que nos vean y nos escuchen.


¿Alguno siente el asomo de un escalofrío?

Yin y colegas están trabajando para darle una mejor “visión” a tu equipo y han desarrollado formas para que tu computadora acumule información basada en dónde (el usuario) estás mirando, a través de tus gestos o de lo que dices. No sólo es visión sino también audición para el ordenador. De esta forma, aseguran, personas con problemas motores o impedimentos varios, tendrán una mayor facilidad para usarlos.

“Nuestra investigación en gráficos y en visión computacional intenta hacer que las computadoras sean mucho más fáciles de usar. ¿Será posible encontrar una forma más inteligente, intuitiva y cómoda de usar un ordenador? Pues debería de sentirse como si estuvieses hablando con un amigo”, explica Yin y numerosas imágenes de aquel intrigante “Hal” alborotan mi mente

(https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiR3kY9dSUO9R3_tspIJ2duRojBnw-CFDxipRrcuIOLeqQPaZVRs4pyU70i5jMyvyj_8YlQuu-C57IV349Nh6KAmT8dcqQiVsca3EqVkmGBoJ78JawZoKekKSVcv47ou_hiIrOxPk1eeuOc/s1600/hal+9000.jpg).

Hace diez años no imaginé muchas cosas que hoy uso diariamente, por eso no sé las formas que tomarán estas investigaciones, todo se mueve tan rápido en esta época. De hecho, algunas de las habilidades que desea desarrollar Yin ya están en uso. Uno de sus estudiantes, por ejemplo, impartió una presentación en PowerPoint donde usaba sólo sus ojos para resaltar contenido en algunas de sus diapositivas.

Para Yin, uno de los próximos pasos es conseguir que la computadora reconozca el estado emocional del usuario. Su equipo trabaja con los seis estados básicos de la emoción que ya están muy bien establecidos: rabia, asco, miedo, alegría, tristeza y sorpresa. Estas ideas hacen que recuerde al robot social de MIT, Kismet, que fue programado para simular varias emociones con su rostro, lo pueden ver aquí:
 http://www.ai.mit.edu/projects/humanoid-robotics-group/kismet/kismet.html

Actualmente, el equipo de Yin está experimentando con las diferentes formas posibles de que la computadora distinga cómo nos sentimos. Por ejemplo, ¿podría basarse en cambios de las líneas alrededor de nuestros ojos?, ¿sería mejor que enfocara su atención en la boca? o ¿qué ocurriría si el rostro de la persona estuviese parcialmente cubierto, quizá mirando hacia un lado?

“Las computadoras sólo entienden ceros y unos. Para ellas, todo tiene que ver con patrones. Queremos encontrar la forma de cómo reconocer cada emoción utilizando sólo las características más importantes”, explica Yin.

El equipo ha hecho una importante alianza con psicólogos de la misma universidad para explorar formas de ayudar a niños autistas con estas máquinas expresivas. “Es posible la creación de avatares emotivos que puedan interactuar con personas con distintos impedimentos para reconocer las intenciones y humores de los demás”, explica Peter Gerhardstein, uno de los psicólogos colaboradores.

De hecho, Yin y Gerhardstein ya han trabajado juntos. Ambos investigadores crearon una base de datos de expresiones faciales en tercera dimensión que incluye a 100 sujetos con 2,500 modelos de expresiones faciales. Esta impresionante base de datos está disponible de forma gratuita para la comunidad de investigadores y se ha convertido en una herramienta muy utilizada en campos diferentes como la biomedicina, las ciencias de la computación y en las fuerzas del orden como en investigaciones criminales.

“No sólo deseamos crear un modelo de una persona virtual sino que queremos entender las emociones y sentimientos de una persona real. Queremos que la computadora sea capaz de entender cómo te sientes, si sientes dolor o asco, si estás feliz. Y si te sientes enfermo y no puedes llamar a un médico, programarlas para que lo hagan por ti. Y eso es difícil, es mucho más difícil que todos mis otros trabajos”, explica Yin.

http://discovere.binghamton.edu/

Por Glenys Álvarez

No hay comentarios:

Publicar un comentario

Related Posts Plugin for WordPress, Blogger...
 

No creo en dios

No creo en Jesucristo

No creo en la Biblia