Desmitificar el funcionamiento de las redes neuronales

Resumen: Las redes neuronales profundas, que imitan el cerebro humano, han demostrado la capacidad de "aprender" a partir de imágenes, sonidos y textos. Aunque el aprendizaje profundo existe desde hace más de una década, mucho de lo que es el aprendizaje profundo sigue siendo un misterio, incluyendo cómo aprenden las redes neuronales o por qué lo hacen tan bien. Esto puede cambiar, sin embargo, gracias a una nueva teoría que aplica el principio del cuello de botella de la información al aprendizaje profundo. Esta teoría se caracteriza de la siguiente manera: después de una fase inicial de ajuste, la red neural profunda "olvida" y comprime los datos "superfluos" -es decir, los datos que contienen mucha información innecesaria- preservando la información sobre lo que representa.


Valor: Una comprensión precisa de cómo funciona el aprendizaje profundo permite su desarrollo y uso a una escala más amplia. Por ejemplo, puede arrojar luz sobre las opciones óptimas de diseño y arquitectura de la red, al tiempo que proporciona una mayor transparencia para las aplicaciones reglamentarias o críticas para la seguridad. Aplicada a otros tipos de redes neuronales profundas y su diseño, esta teoría dará muchos resultados.


Matrices de cápsulas: imitan las capacidades de procesamiento visual del cerebro

Resumen: Las redes de cápsulas - redes neuronales profundas de un nuevo tipo - procesan la información visual casi como el cerebro. Esto significa que pueden tener relaciones jerárquicas, a diferencia de las redes neuronales convolucionales, uno de los tipos más comunes de redes neuronales. Esto se debe a que no tienen en cuenta las grandes jerarquías espaciales entre los objetos simples y complejos, y por lo tanto no los clasifican, lo que resulta en una alta tasa de error.

Beneficios: Para las tareas de identificación, las matrices de cápsulas prometen una mayor precisión hasta un 50% de reducción de errores. Sus modelos de conducción no requieren tantos datos como sus predecesores. El uso de conjuntos de cápsulas se generalizará en muchas áreas así como en las arquitecturas de redes neuronales profundas.


Aprendizaje de refuerzo profundo: interactuar con el entorno para resolver problemas de negocios


Visión general: Es un tipo de red neuronal que interactúa con el medio ambiente a través de la observación, las acciones y las recompensas. El aprendizaje de refuerzo profundo (DRL) se ha utilizado para enseñar programas para aprender estrategias de juego (Atari o Go), incluyendo el famoso programa AlphaGo que derrotó a un campeón humano.

Interés: El aprendizaje de refuerzo profundo es la más genérica de las técnicas de aprendizaje, puede ser utilizada en la mayoría de las aplicaciones de negocios. Requiere menos datos que otros métodos para entrenar sus modelos. Lo más notable es que este tipo de modelo puede ser entrenado por simulación, eliminando la necesidad de datos totalmente etiquetados. A la luz de estos beneficios, veremos más aplicaciones comerciales que combinen el aprendizaje de refuerzo profundo y la simulación basada en agentes emergentes a finales de este año.

Aprendizaje ajustado o aprender de los datos aumentados: afrontar el reto de los datos etiquetados


Resumen: El mayor desafío en el aprendizaje de la máquina, y el aprendizaje profundo en particular, es la disponibilidad de grandes volúmenes de datos etiquetados para entrenar el sistema. Para superar esto, se utilizan dos técnicas principales:

Síntesis de nuevos datos: Esto aumenta, a través de la simulación o la interpretación, la cantidad de datos disponibles y mejora el aprendizaje.
Transferencia: en un nuevo contexto, de un modelo entrenado a una tarea o área particular, utilizando técnicas como la transferencia de aprendizaje (transferencia de los conocimientos de una tarea a otra o de un área a otra) o el aprendizaje ad hoc (transferencia de aprendizaje llevada al extremo, llevada a cabo con poco o ningún ejemplo relevante), conocidas como técnicas de aprendizaje "lean".
Interés: Con estas técnicas, podemos abordar una gama más amplia de temas, especialmente cuando los datos históricos son más escasos. Las variaciones en torno al aprendizaje magro surgirán de los datos aumentados, así como de los diferentes tipos de aprendizaje aplicados a una amplia gama de cuestiones empresariales.

Programación probabilística: lenguajes para facilitar el desarrollo de modelos

Resumen: Son lenguajes de programación de alto nivel que facilitan a los desarrolladores el diseño de modelos de probabilidad y los "resuelven" automáticamente. Con los lenguajes de programación probabilísticos, se hace posible reutilizar las bibliotecas de modelos, utilizar el modelado interactivo y la verificación formal, y así proporcionar la capa de abstracción necesaria para apoyar inferencias genéricas eficientes en las clases de modelos universales.

Interés: Los lenguajes de programación probabilísticos tienen la capacidad de adaptarse cuando se encuentran con información incierta o incompleta, lo cual es común en el ámbito empresarial. Deberíamos ver una creciente adopción de estos idiomas, que sin duda se aplicará a la enseñanza profunda.

Publicar un comentario

0 Comentarios