Información

20.7: Redes neuronales - Biología

20.7: Redes neuronales - Biología


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Las redes neuronales surgieron modelando el cerebro y el sistema nervioso en un intento de lograr un aprendizaje similar al del cerebro. En lo que respecta a este libro, también han demostrado ser muy buenos modelos biológicos (no es de extrañar, dado el lugar de origen).

Redes de avance

En una red neuronal asignamos la entrada a la salida pasando por estados ocultos que se parametrizan mediante el aprendizaje.

• El flujo de información es unidireccional

• Los datos se presentan en la capa de entrada

• Pasado a la capa oculta
• Pasado a la capa de salida

• La información se distribuye
• El procesamiento de la información es paralelo

Propagación hacia atrás

La retropropagación es uno de los resultados más influyentes para entrenar redes neuronales y nos permite lidiar fácilmente con redes multicapa.

• Requiere un conjunto de entrenamiento (pares de entrada / salida)

• Comienza con pequeños pesos aleatorios

• El error se usa para ajustar pesos (aprendizaje supervisado)
Básicamente, realiza un descenso de gradiente en el panorama de errores tratando de minimizar el error. Por tanto, la propagación hacia atrás puede ser lenta.

Aprendizaje profundo

El aprendizaje profundo es una colección de técnicas estadísticas de aprendizaje automático que se utilizan para aprender jerarquías de funciones. A menudo se basa en redes neuronales artificiales. Las redes neuronales profundas tienen más de una capa oculta. Cada capa sucesiva en una red neuronal usa características en la capa anterior para aprender características más complejas. Uno de los objetivos (relevantes) de los métodos de aprendizaje profundo es realizar la extracción de características jerárquicas. Esto hace que el aprendizaje profundo sea un enfoque atractivo para modelar procesos generativos jerárquicos que se encuentran comúnmente en la biología de sistemas.

Ejemplo: DeepBind (Alipanahi et al. 2015)

DeepBind [1] es una herramienta de aprendizaje automático desarrollada por Alipanahi et al. para predecir las especificidades de secuencia de proteínas de unión a ADN y ARN utilizando métodos basados ​​en aprendizaje profundo.

Los autores señalan tres dificultades encontradas al entrenar modelos de secuencia de especificidades en los grandes volúmenes de datos de secuencia producidos por tecnologías modernas de alto rendimiento: (a) los datos vienen en formas cualitativamente diferentes, incluyendo microarrays de unión a proteínas, ensayos de RNAcompete, ChIP- seq y HT-SELEX, (b) la cantidad de datos es muy grande (los experimentos típicos miden de diez a cien mil secuencias y (c) cada tecnología de adquisición de datos tiene sus propios formatos y perfil de error y, por lo tanto, se necesita un algoritmo que sea robusto a estos efectos no deseados.

El método DeepBind es capaz de resolver estas dificultades mediante (a) implementación paralela en una unidad de procesamiento de gráficos, (b) tolerando un grado moderado de ruido y datos de entrenamiento mal clasificados y (c) entrenando el modelo predictivo de manera automática mientras evitando la necesidad de afinación manual. Las siguientes figuras ilustran aspectos de la canalización de Deep Bind.

Para abordar la preocupación del sobreajuste, los autores utilizaron varios regularizadores, incluidos el abandono, la disminución del peso y la interrupción temprana.

Abandono: prevención del ajuste excesivo

Dropout [5] es una técnica para abordar el problema del sobreajuste de los datos de entrenamiento en el contexto de grandes redes. Debido a la multiplicación de gradientes en el cálculo de la regla de la cadena, los pesos unitarios ocultos se adaptan conjuntamente, lo que puede provocar un sobreajuste. Una forma de evitar la adaptación conjunta de pesos unitarios ocultos es simplemente soltar unidades (al azar). Una consecuencia beneficiosa de la caída de unidades es que las redes neuronales más grandes son más intensivas en computación para entrenar.

Sin embargo, este enfoque lleva un poco más de tiempo con respecto al entrenamiento. Además, ajustar el tamaño del paso es un desafío. Los autores proporcionan un Apéndice, en el que (en la parte (A)) proporcionan una útil "Guía práctica para la formación de redes de abandono escolar". Señalan que los valores típicos para el parámetro de abandono p (que

Cortesía de Macmillan Publishers Limited. Usado con permiso.

Fuente: Alipanahi, Babak, Andrew Delong, et al. "Predecir las especificidades de secuencia de

Proteínas de unión a ADN y ARN por aprendizaje profundo ". Biotecnología de la naturaleza (2015)

determina la probabilidad de que se elimine un nodo) están entre 0,5 y 0,8 para las capas ocultas y 0,8 para las capas de entrada.


Ver el vídeo: Redes Neuronales Biologicas (Julio 2022).


Comentarios:

  1. Quarrie

    Y no, sucede así)))))

  2. Husain

    Creo que se cometen errores. Intentemos discutir esto. Escríbeme en PM, te habla.

  3. Dearg

    Exactamente lo que es necesario.

  4. Atlantes

    Pesadilla. Acabo de ver las noticias, solo los bueyes están subiendo, cómo podemos vivir si el precio del petróleo ha bajado tanto. Algunas cifras e ingresos se incluyeron en el presupuesto, ahora vemos otras. Me pregunto cuánto tiempo nuestro fondo de estabilización será suficiente para nosotros con este enfoque. Lo siento, estoy muy cerca del tema. Pero esto también es importante, me parece.



Escribe un mensaje