Google comparte Tensor Flow, su sistema de inteligencia artificial
Google quiere que el Machine Learning, una rama de la inteligencia artificial que aprende a partir de patrones, forme parte de la próxima generación de aplicaciones web. La semana pasada añadió una opción en Inbox, su aplicación de correo, para poder responder automáticamente, intuyendo posibles respuestas. En junio lanzó Google Fotos, un almacén inteligente que reconoce objetos, personas, situaciones y lugares.
Tensor Flow es el almacén de experiencias y resultados de experimentos que usa Google para que sus aplicaciones tomen decisiones mejores. El buscador acaba de abrirlo a terceros. Sundar Pichai, consejero delegado de Google, explica los avances de los últimos años: “Nos permite construir y entrenar a las redes neuronales hasta cinco veces más rápido que los primeros sistemas. La consecuencia es que los productos que lo usan aprenden mucho más rápido”.
Será gratis y no hay requisitos previos para acceder a esta herramienta. “Queremos generar una comunidad de Machine Learning, desde el mundo académico, a ingenieros y aficionados, para que intercambien ideas y se investigue”, subraya. La web creada al efecto cuenta con varios ejemplos y cursos de aprendizaje.
El directivo insiste en que el futuro de Google pasa por el uso de esta tecnología: “Hace solo un par de años no podía hablar con nuestra aplicación, ni leer un cartel en ruso, o encontrar fotos de tu labrador en Google Fotos. Nuestras aplicaciones no eran tan inteligentes. En muy poco tiempo han dado un gran giro gracias a nuestra inversión en este campo”. Aunque reconoce que todavía queda largo camino por recorrer: “Estamos en la infancia. Los ordenadores de hoy todavía no pueden hacer algo que un niño de cuatro años reconoce, como distinguir diferentes dinosaurios con solo verlos en par de veces”.
Rajat Monga es el responsable de esta nueva división cuyo embrión se generó en 2011 con una investigación, DistBelief, que pretendía entender mejor las relaciones entre datos. Así empezaron a distinguir qué gatos salián en YouTube, reconocer el habla en el buscador o saber si lo que se come en una foto es paella o helado. O incluso si se come o se monta en bicicleta.
En 2014 publicaron otro experimento, Deep Dream para la formación e interpretación de imágenes a partir de otras simulando, que terminó con la liberación de una herramienta para jugar a dar un toque surrealista al archivo personal.
Fuente: [http://tecnologia.elpais.com/tecnologia/2015/11/09/actualidad/1447090931_239441.html]
Comentarios