Si siente que necesita ojos en la parte posterior de su cabeza, hay una aplicación de crowdsourcing para eso.
Zensors es una aplicación para teléfonos inteligentes que puede monitorear un área de interés mediante el uso de una cámara, trabajadores de crowdsourcing e inteligencia artificial..
Desarrollado por investigadores de la Universidad Carnegie Mellon y la Universidad de Rochester, la idea detrás de Zensors es usar cualquier cámara en una ubicación fija para detectar cambios en lo que se está monitoreando, por ejemplo si el plato de comida de una mascota está vacío, y notificar automáticamente a los usuarios.
Los desarrolladores dicen que es una forma económica y accesible de agregar sensores al medio ambiente, parte del movimiento hacia la construcción de hogares inteligentes y ciudades inteligentes..
El proyecto, presentado en la Conferencia de interacción computadora-humano (CHI) de 2015 en Seúl esta semana, se basa en preguntas simples de los usuarios escritas en lenguaje cotidiano sobre el área que se está monitoreando.
Por ejemplo, una pregunta podría ser: ¿hay un automóvil en el estacionamiento? La presencia de un automóvil provocaría una respuesta positiva en la alerta al usuario, que podría enviarse por correo electrónico o mensaje de texto..
La cámara podría ser el sensor de imagen en cualquier dispositivo móvil, siempre que se haya configurado para monitorear algo, o una cámara web, cámara de seguridad o cualquier otra cámara conectada. Capturará imágenes en un intervalo establecido por el usuario.
Los usuarios primero seleccionan una región de interés en la vista de la cámara rodeándola con un dedo en una pantalla táctil, con el objetivo de limitar la vigilancia y proteger la privacidad de las personas que podrían entrar en una parte del marco.
Luego, se ingresa una pregunta en la aplicación Zensors, y el trabajo de monitorear las imágenes se lleva a Internet. Las imágenes redundantes en las que nada ha cambiado se ignoran automáticamente.
Las personas que realizan el monitoreo inicial podrían ser el personal de un centro de llamadas o un servicio de subcontratación como el Mechanical Turk de Amazon, que se utilizó en el estudio de CMU. Cuando los monitores deciden que la pregunta tiene una respuesta afirmativa, pronto cambia un gráfico en la aplicación; También podría emitir alertas a los usuarios.
Sin embargo, Zensors se pone interesante cuando el proceso se vuelve automático. Después de un cierto período de monitoreo humano, los algoritmos de aprendizaje automático en el software pueden aprender cuando se cumple una determinada condición. Por ejemplo, podrían aprender a reconocer que el plato de comida de una mascota está vacío.
Para garantizar la precisión de los algoritmos, el sistema sería revisado periódicamente por los trabajadores, lo que podría tener un papel más práctico si el área monitoreada tiene un cambio inesperado..
Las herramientas de visión por computadora también se pueden agregar al procesamiento de datos, lo que permite que el sistema realice tareas como contar automóviles o personas en un área determinada.
En una demostración, un teléfono inteligente con Zensors fue colocado boca arriba sobre una mesa. Se introdujo una pregunta: "¿Hay una mano?" Después de sostener una mano sobre la cámara del teléfono, el gráfico de la aplicación cambió, mostrando que los trabajadores de Mechanical Turk habían respondido desde lejos. Los investigadores culparon a la latencia de la red por el hecho de que la respuesta tardó unos 30 segundos.
Con una mejor capacidad de respuesta, Zensors podría usarse en una variedad de aplicaciones comerciales y domésticas. Un gerente de un restaurante podría usarlo para saber cuándo se deben rellenar los anteojos de los clientes, y las compañías de seguridad podrían usarlo para el monitoreo automático.
"Somos los primeros, hasta donde yo sé, en fusionar a la multitud con el entrenamiento de aprendizaje automático y realmente hacerlo", dijo Gierad Laput, estudiante de doctorado en el Instituto de Interacción Humano-Computadora de Carnegie Mellon, quien también mostró nuevas interfaces para teléfonos inteligentes. en CHI.
El costo del monitoreo humano es de 2 centavos por imagen, según los investigadores. Cuesta alrededor de US $ 15 en datos examinados por humanos para entrenar los algoritmos para que puedan hacerse cargo.
Por el contrario, hacer que un programador escriba un software de visión por computadora para un sensor que responde una pregunta básica de sí o no podría tomar más de un mes y costar miles de dólares..
"El procesamiento del lenguaje natural, el aprendizaje automático y la visión por computadora son tres de los problemas más difíciles en la informática", dijo Chris Harrison, profesor asistente de interacción humano-computadora en CMU. “La multitud básicamente nos permite evitar mucho de eso. Pero simplemente dejamos que la multitud haga el trabajo de arranque y aún obtenemos los beneficios del aprendizaje automático ".
Los investigadores planean seguir mejorando la aplicación Zensors, ahora en versión beta, y luego lanzarla al público.
Únase a las comunidades de Network World en Facebook y LinkedIn para comentar temas que son lo más importante.