¿La inteligencia artificial es capaz de autocrearse?

inteligencia-artificial-red-neuronal

Las redes neuronales profundas y un tipo de inteligencia artificial parecen superar los algoritmos estándar tal como los conocíamos desde hace diez años.

Las redes neuronales de la actualidad poseen grandes cantidades de datos y requieren un mayor consumo energético. De modo que entrenarlos requiere ajustar los valores de millones (si no es que de miles de millones) de parámetros que definen estas redes y representan las interconexiones entre neuronas artificiales.

El objetivo de estos ajustes es conseguir configuraciones lo más ideado posibles para llegar al proceso llamado optimización. Sin embargo, enseñar a las redes a llegar a ese estado resulta difícil.

Te podría interesar: La inteligencia artificial que sugirió 40.000 nuevas armas bioquímicas

La obtención del Hyper

Hasta el momento, los enfoques que resultan más efectivos al momento de entrenar y mejorar las redes neuronales convencionales son las variaciones de un proceso que se le conoce como Descenso de Gradiente Estocástico (SGD). Es decir, reducir los errores de la red en un determinado trabajo como el reconocimiento de imágenes.

Un método SGD tiene la capacidad de procesar gran cantidad de datos etiquetados para alterar la configuración de la red y así reducir los errores o pérdidas. El descenso de gradiente es el proceso repetido de descender de valores de función de alta pérdida en algún límite inferior que indica valores de parámetros que resultan suficientemente buenos.

No obstante, esta estrategia es efectiva solo si se cuenta con una red para mejorarla. Por lo que los ingenieros deben depender de instituciones y reglas generales a fin de construir la red neuronal inicial. A menudo, esta se compone de numerosas capas de neuronas artificiales que son conectadas desde una ingesta hasta una producción.

Una hiperred gráfica inicia con cualquier diseño que deba ser optimizado (apodado el candidato). Más tarde, intenta pronosticar los mejores parámetros para el candidato. Luego, el equipo se encarga de ajustar los parámetros de una red neuronal a los valores proyectados para ejecutarla a una prueba específica de la tarea.

Sigue con: Inteligencia artificial optimizada para negocios

Formación del formador

Knyazev y sus sucios llamaron a su hiperred GHN-2 que mejora dos características clave de la hiperred gráfica de Ren y sus socios. En primer lugar, se apoyaron de la técnica de Ren de representar la arquitectura de una red neuronal como un árbol. Cada nodo en el gráfico representa un subconjunto de neuronas que se encargan de un tipo específico de cálculo.

El proceso de entrenamiento a la hiperred con el objetivo de producir predicciones a nuevos diseños de candidatos fue la segunda noción en la que se basaron. En consecuencia, se requieren dos redes neuronales adicionales. El primero de ellos permite ejecutar cálculos sobre el gráfico potencial original. El segundo, toma los nodos modificados como entrada y pronostica la configuración de los elementos computacionales de la red neuronal propuesta.

Pero para conseguirlo, necesitará dato de entrenamiento. En este caso, un muestreo aleatorio de varias tipografías de redes neuronales artificiales (ANN). Iniciando con un gráfico para cada diseño de la muestra. Más adelante usa la hiperred de árbol con el fin de pronosticar parámetros y establece el ANN candidato con las variables predichas.

- Anuncio -
Artículo anteriorPlatzi y Duolingo se unen para fortalecer el aprendizaje del inglés en la región
Artículo siguienteEpic lanza una app en iPhone para convertir cosas en objetos 3D
Somos el medio para el talento del mañana.