Simulación del cerebro a gran escala para inteligencia artificial y aprendizaje de máquina.

"Consideramos el problema para construir detectores de alto nivel para características específicas a partir de información no etiquetada. Por ejemplo, ¿es posible aprender para un detector de rostros utilizando sólo imágenes no etiquetadas? Contrario a la opinión general, nuestros resultados experimentales revelaron que sí es posible capacitar un detector de rostros sin contar con imágenes etiquetadas con la información si tenían o no un rostro en ellas." (Crédito: Google Research)

“Consideramos el problema para construir detectores de alto nivel para características específicas a partir de información no etiquetada. Por ejemplo, ¿es posible aprender para un detector de rostros utilizando sólo imágenes no etiquetadas? Contrario a la opinión general, nuestros resultados experimentales revelaron que sí es posible capacitar un detector de rostros sin contar con imágenes etiquetadas con la información si tenían o no un rostro en ellas.” (Crédito: Google Research)

El equipo de investigación de Google ha estado trabajando en nuevas propuestas para el aprendizaje de máquina en gran escala, reportó el blog oficial de Google.

La tecnología actual para el aprendizaje de máquina toma mucho tiempo en adaptarse a nuevos usos. Por ejemplo, digamos que intentamos crear un sistema que distinga entre fotos de automóviles y motocicletas.

En el enfoque estándar de aprendizaje de máquina, primero debemos reunir decenas de miles de fotos que hayan sido previamente etiquetadas como autos o motos, lo que llamamos información de etiquetado, para capacitar el sistema. Sin embargo, el etiquetado toma mucho tiempo y trabajo y existe, comparativamente, muy poca información etiquetada en la actualidad.

Afortunadamente, investigación reciente en aprendizaje autodidacta y aprendizaje profundo sugiere que podemos utilizar información no etiquetada  -tales como imágenes tomadas al azar o vídeos en YouTube. Estos algoritmos funcionan por medio de la construcción de redes neurales artificiales, que simulan los procesos de aprendizaje de las neuronas en el cerebro.

Las redes neuronales son, computacionalmente hablando, muy costosas, por lo que hasta el momento la mayoría de las redes utilizadas en aprendizaje de máquina han usado sólo de 1 a 10 millones de conexiones. “Sin embargo, sospechamos que al capacitar o entrenar redes más grandes podemos alcanzar mejores resultados y exactitud”, indicó el equipo de Google.

“Por lo que desarrollamos una infraestructura de computación distribuida para capacitar redes neurales de gran escala. El paso siguiente fue tomar una red neural artificial y expander su cómputo en 16,000 de nuestros cores de CPU (en los centros de datos de Google) y capacitamos modelos con más de mil millones de conexiones.”

“Luego ejecutamos experimentos que preguntaban de manera informal: si pensamos en una red neural como la simulación de un ‘cerebro recién nacido’ a muy pequeña escala y le mostramos vídeos de YouTube por una semana, ¿qué aprenderá? Nuestra hipótesis era que aprendería a reconocer objetos comunes en esos vídeos.”

“Ciertamente, para nuestro asombro, una de nuestras neuronas artificiales aprendió a responder muy bien acerca de fotos de… gatos. Recordemos que esta red no ha sido capacitada para saber lo que es un gato y nunca se le dio una sola imagen etiquetada como gato. Por el contrario, la red “descubrió” como lucía un gato por sí misma a partir de imágenes no etiquetadas en YouTube. A eso nos referimos cuando hablamos de aprendizaje autodidacta.”

Google reporta sobre estos experimentos, encabezados por Quoc Le, en ICML de esta semana. Aquí el reporte del blog.

Encuentras más información aquí.