jueves, 22 de agosto de 2019

EL APRENDIZAJE PROFUNDO, QUE ES CIERTAMENTE.


EL APRENDIZAJE PROFUNDO, QUE ES CIERTAMENTE.



Cuando hablamos de Deep Learning o redes neuronales artificiales, hablamos de Inteligencia artificial. 

Si queremos ser más concretos, es un tipo de algoritmos de aprendizaje automático estructurado o jerárquico, donde se toman modelos existentes a la hora de predecir el futuro con los datos que disponemos.

Con los algoritmos de Deep Learning, nos permiten obtener el conocimiento de enormes volúmenes de datos, ya sean grandes repositorios de imágenes, vídeos, textos y conversaciones. 
Estos novedosos algoritmos construyen de manera automática jerarquías de conceptos que van de lo más sencillo a lo más complejo hasta crear una red neuronal de muchas capas.

Aprendizaje profundo: 



En inglés, Deep learning; es un conjunto de algoritmos de aprendizaje automático, en inglés, machine learning, que intenta modelar abstracciones de alto nivel en datos usando arquitecturas computacionales que admiten transformaciones no lineales múltiples e iterativas de datos expresados en forma matricial o tensorial.

El aprendizaje profundo se basa en teorías acerca cómo funciona el cerebro humano. 

El programa está constituido por capas anidadas de nodos interconectados. 

Después de cada nueva experiencia, aprende reacomodando las conexiones entre los nodos.

El aprendizaje profundo es un tema que cada vez adquiere mayor relevancia en el campo de la inteligencia artificial (IA). 

Siendo una subcategoría del aprendizaje automático, el aprendizaje profundo trata del uso de redes neuronales para mejorar cosas tales como el reconocimiento de voz, la visión por ordenador y el procesamiento del lenguaje natural. 

Rápidamente se está convirtiendo en uno de los campos más solicitados en informática.

 En los últimos años, el aprendizaje profundo ha ayudado a lograr avances en áreas tan diversas como la percepción de objetos, la traducción automática y el reconocimiento de voz, todas estas áreas son especialmente complejas para los investigadores en IA.

QUE ES UNA RED NEURONAL

En tecnología de la información, una red neuronal es un sistema de programas y estructuras de datos que se aproxima al funcionamiento del cerebro humano.



Una red neuronal suele implicar un gran número de procesadores funcionando en paralelo, teniendo cada uno de ellos su propia pequeña esfera de conocimiento y acceso a datos en su memoria local. 

Habitualmente, en un principio una red neuronal se “adiestra” o se alimenta con grandes cantidades de datos y reglas acerca de las relaciones (por ejemplo, “un abuelo es más viejo que el padre de una persona”). 

Luego, un programa puede indicar a la red cómo comportarse en respuesta a un estímulo externo (por ejemplo, a un dato que introduce un usuario de ordenador que está interactuando con la red) o puede iniciar la actividad por sí misma (dentro de los límites de su acceso al mundo externo).

APRENDIZAJE PROFUNDO FRENTE A APRENDIZAJE AUTOMÁTICO

Para entender qué es el aprendizaje profundo, lo primero que hay que hacer es distinguirlo de otras disciplinas que pertenecen al campo de la IA.

Una consecuencia de la IA fue el aprendizaje de máquina, donde el ordenador extrae conocimiento a través de experiencia supervisada. 

Esto solía implicar a un operador humano que ayudaba a la máquina a aprender proporcionándole cientos o miles de ejemplos de formación y corrigiendo manualmente sus errores.

Si bien el aprendizaje de máquina se ha convertido en un elemento dominante en el campo de la IA, presenta ciertos problemas. 

Por un lado, consume muchísimo tiempo. Por otro, aún no constituye una verdadera medida de inteligencia de máquina ya que se apoya en la ingenuidad humana para proponer las abstracciones que permiten que el ordenador aprenda.

A diferencia de lo que ocurre con el aprendizaje de máquina, el aprendizaje profundo está menos sometido a supervisión. Implica, por ejemplo, la creación de redes neuronales a gran escala que permiten que el ordenador aprenda y “piense” por sí mismo sin necesidad de intervención humana directa.

LAS APLICACIONES DE DEEP LEARNING



El aprendizaje profundo y los modelos predictivos jerárquicos han sido más utilizados en el área de los diagnósticos médicos y en análisis predictivos en los mercados financieros, pero han ido cada vez adquiriendo más peso en el resto de los sectores como componentes esenciales para detectar el fraude, sistemas de recomendación, predicción de churn, (el churn o abandono de clientes), modelos de propensión, detección de anomalías o para auditoría de datos.

Un caso curioso es el de Google, donde su CEO reconoció no haber visto venir el movimiento de las "Machine Intelligence" ni la potencia, del que ahora es un componente fundamental de la mayoría de sus productos.




Entre ellas podríamos citar el reconocimiento de voz de Google Now, traducciones semánticas y no de forma literal de Google Translate, las Smart Replies de Gmail, buscar por conceptos en Google Photos, rutas recomendadas de Google Maps, etc.

El caso es que las compañías más importantes de Internet han acelerado la actualización de su oferta de servicios con varios grados de aprendizaje automáticos. que se pueden adquirir en modo nube (Cloud): caso de Google Cloud ML, Microsoft Cognitive Services, Intel Deep Learning, Amazon AI services.

Gigantes como Apple, Facebook o Baidu, han apostado bastante fuerte a la hora de tomar la iniciativa y no quedarse atrasados. Facebook ya ha formado a todos sus ingenieros en machine learning y lanzó un programa para llegar a convertirse en investigadores de Inteligencia Artificial a tiempo completo. Incluso Google lleva ya un tiempo dando clases internas a sus empleados para que manejen correctamente el deep learning.

LENGUAJE NATURAL HABLADO Y ESCRITO.

La aplicación del deep learning permite, en este caso, ofrecer servicios que reaccionen ante diferentes comandos enviados en lenguaje natural, es decir, como hablamos las personas, tanto de forma oral como escrita. 

Microsoft es una de las compañías que más ha avanzado en este sentido con la creación de un servicio web que permite programar bots (pequeños asistentes conversacionales con una inteligencia artificial limitada a tareas muy específicas) aplicables a diferentes propuestas para el usuario que sean capaces de reaccionar ante comandos emitidos en lenguaje natural.

INTERPRETACIÓN SEMÁNTICA.

El poder conseguir que las máquinas entiendan los comentarios de los usuarios y sacar valor de sus conversaciones en, por ejemplo, la mensajería instantánea, es una meta en el que trabajan las compañías. 

Algunas de ellas ya lo están usando también a la hora de orientar los anuncios e identificar rostros y objetos en fotografías y vídeos. Facebook ha empezado a implementar algunas de estas funciones dentro de su herramienta Messenger.

Las redes sociales han cambiado la forma en que las noticias son generadas, difundidas y aceptadas por la sociedad:

Esto esta abriendo nuevas oportunidades no previstas y a su vez, también esta creando desafíos complejos. 

Las redes sociales, diarios digitales, si bien son fuentes muy importantes de información, permiten la generación de información altamente sesgada, así como facilitar la rápida difusión de la misma. 

Haciendo un uso fraudulento de las mismas, se pueden generar con facilidad campañas de información no legítimas que pueden afectar la credibilidad de todo el ecosistema de noticias.



Hoy son grandes los esfuerzos de investigación que se dedican. no sólo a comprender mejor este fenómeno, sino también a automatizar la detección de noticias falsas o Fake News.

La detección de noticias falsas es un problema de aprendizaje supervisado donde se aplican técnicas de Procesamiento de Lenguaje Natural (NLP). 

En este caso nos encontramos con contenido web que puede obtenerse mediante web scrapping, y a cada noticia se la puede etiquetar en base a tantos criterios como se desee. 

Una de las condiciones para que los clasificadores de noticias falsas logren un buen desempeño es tener suficientes datos etiquetados. 



Sin embargo, obtener etiquetas en las que confiar requiere mucho tiempo y trabajo de catalogación. Por lo tanto, los métodos semi-supervisados y no supervisados también se pueden utilizar para la agrupación de noticias en una primera aproximación exploratoria.


No hay comentarios.:

Publicar un comentario