Información

¿Cuáles son los requisitos para que un espectrómetro se utilice en investigación biológica?

¿Cuáles son los requisitos para que un espectrómetro se utilice en investigación biológica?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Supongamos que uno haría espectrofotometría en materiales biológicos. ¿Cuáles serían los requisitos mínimos del dispositivo de medición para que los resultados pudieran publicarse en una revista de renombre? Supongo que dos propiedades importantes son

  • resolución del espectro (¿sería suficiente, por ejemplo, 25 nm? ¿15 nm? ¿5 nm?)
  • error de medición (10%, 5%, 1%, ...?)

¿Qué más (si es que hay algo) debería tenerse en cuenta?


Para todos los usos comunes de un espectrofotómetro en biología, cualquier comercial debería ser suficiente. Para todas las cosas de rutina, la calidad del espectrofotómetro suele tener una importancia insignificante.

No hay reglas generales sobre qué errores y resolución son aceptables, eso siempre depende de lo que esté midiendo. El error debería ser significativamente menor que el tamaño del efecto que está viendo; de lo contrario, no obtendrá datos utilizables.

Hay muchas fuentes de error con los sistemas biológicos, el espectrofotómetro es realmente una de las últimas en las que podría pensar. Simplemente, el error de pipeteo es probablemente mucho mayor que el error del espectrofotómetro, y las diferencias en la preparación de sus muestras biológicas pueden introducir un error aún mayor. A menos que esté haciendo algo más allá de los usos rutinarios de la espectrometría UV / Vis, probablemente no tenga que preocuparse por esto.


¿Cuáles son los requisitos para que un espectrómetro se utilice en investigación biológica? - biología

Fechas clave
Fecha de lanzamiento: 31 de mayo de 2017

Emitido por
Institutos Nacionales de Salud (NIH)
Agencia para la Investigación y la Calidad de la Atención Médica (AHRQ)

Este Aviso proporciona recordatorios para los solicitantes de subvenciones de investigación y los solicitantes de premios de desarrollo profesional con mentores que proponen el uso de recursos biológicos y / o químicos clave. Como se describe en NOT-OD-16-011 y NOT-OD-16-012, se espera que los solicitantes que propongan el uso de recursos biológicos y / o químicos clave establecidos incluyan un plan para autenticar estos recursos en la & quotAuthentication of Key Biological and / o Adjunto de Recursos Químicos & quot.

"Recursos biológicos y / o químicos clave" se refiere a reactivos o recursos establecidos que se utilizarán en la investigación propuesta. Esto incluye, entre otros, líneas celulares, productos químicos especiales, anticuerpos u otros productos biológicos. Los recursos biológicos y / o químicos clave son parte integral de la investigación propuesta y pueden o no haber sido generados con fondos de los NIH.

Es probable que los recursos clave que requieren validación:

  • Difieren de un laboratorio a otro o con el tiempo.
  • Variar en cualidades o calificaciones que podrían influir en los datos de la investigación.

Se espera que los solicitantes que propongan utilizar recursos biológicos y / o químicos clave establecidos incluyan un plan de autenticación en el anexo & quot; Autenticación de recursos biológicos y / o químicos clave & quot, incluso si los recursos clave se compraron u obtuvieron de una fuente externa que proporcionó datos sobre autenticación. El plan de autenticación debe incluir solo una descripción de los métodos propuestos para autenticar los recursos clave antes de su uso y a intervalos regulares, si corresponde. El plan no debe tener más de una página.

  • Los solicitantes que propongan usar líneas celulares podrían describir el método que planean usar para verificar la identidad y pureza de las líneas, que podría incluir perfiles de repetición corta en tándem (STR) y pruebas de micoplasmas.
  • Los solicitantes que propongan utilizar productos químicos que sean clave para la investigación podrían describir el método utilizado para validar el producto químico, que podría incluir cromatografía líquida o de gases, o espectrometría de masas.
  • Los solicitantes que propongan utilizar animales o células modificados genéticamente podrían describir el método utilizado para confirmar la modificación del genoma, que podría incluir amplificación por PCR o transferencia Southern.

Cuando existen estándares de consenso publicados, estos pueden citarse en esta sección como los procedimientos que se utilizarán para la validación.

El anexo "Autenticación de recursos biológicos y / o químicos clave" es solo para recursos biológicos y / o químicos clave establecidos.

  • No incluye planes para la autenticación de conjuntos de datos, bases de datos, maquinaria o electrónica en el anexo "Autenticación de recursos biológicos y / o químicos clave".
  • No incluye planes para el desarrollo y autenticación de nuevos recursos biológicos y / o químicos clave (como una nueva línea celular de cáncer humano o un nuevo anticuerpo). Los solicitantes que propongan generar un nuevo recurso biológico y / o químico clave deben describir el desarrollo y la autenticación del recurso en la sección Enfoque de la Estrategia de investigación.
  • No incluye planes para la autenticación de reactivos de laboratorio estándar que no se espera que varíen. Algunos ejemplos son los tampones y otros productos químicos o biológicos comunes.
  • No incluye autenticación u otros datos en el adjunto "Autenticación de recursos biológicos y / o químicos clave". Incluya solo una descripción de los métodos propuestos para autenticar recursos clave.

Los revisores analizarán la información proporcionada en esta sección después de que se haya calificado la solicitud. Cualquier pregunta del revisor asociada con la autenticación de recursos biológicos y / o químicos clave deberá abordarse antes de la adjudicación.

Información en esta sección debe enfocarse solo sobre la autenticación y / o validación de los recursos clave que se utilizarán en el estudio como se describe anteriormente. Todos los demás métodos y cualquier dato deben incluirse dentro de los límites de página de la estrategia de investigación. Las solicitudes identificadas como que no cumplen con esta limitación serán retiradas del proceso de revisión. (ver NOT-OD-15-095).


Contenido

El concepto de que los individuos pueden tener un "perfil metabólico" que podría reflejarse en la composición de sus fluidos biológicos fue introducido por Roger Williams a fines de la década de 1940, [5] quien utilizó la cromatografía en papel para sugerir que los patrones metabólicos característicos en la orina y la saliva estaban asociados con enfermedades como la esquizofrenia. Sin embargo, fue solo a través de los avances tecnológicos en las décadas de 1960 y 1970 que se volvió factible medir cuantitativamente (en lugar de cualitativamente) los perfiles metabólicos. [6] El término "perfil metabólico" fue introducido por Horning, et al. en 1971 después de que demostraron que la cromatografía de gases y espectrometría de masas (GC-MS) se podía utilizar para medir compuestos presentes en la orina humana y extractos de tejido. [7] [8] El grupo Horning, junto con el de Linus Pauling y Arthur B. Robinson lideraron el desarrollo de métodos GC-MS para monitorear los metabolitos presentes en la orina durante la década de 1970. [9]

Al mismo tiempo, la espectroscopia de RMN, que se descubrió en la década de 1940, también estaba experimentando rápidos avances. En 1974, Seeley et al. demostraron la utilidad de usar RMN para detectar metabolitos en muestras biológicas no modificadas. [10] Este primer estudio sobre el músculo destacó el valor de la RMN en el sentido de que se determinó que el 90% del ATP celular forma un complejo con magnesio. A medida que la sensibilidad ha mejorado con la evolución de mayores intensidades de campo magnético y giro de ángulo mágico, la RMN sigue siendo una herramienta analítica líder para investigar el metabolismo. [7] [11] Reciente [ ¿Cuándo? ] los esfuerzos para utilizar la RMN para la metabolómica han sido impulsados ​​en gran parte por el laboratorio de Jeremy K. Nicholson en Birkbeck College, Universidad de Londres y más tarde en el Imperial College de Londres. En 1984, Nicholson demostró que la espectroscopia de 1 H RMN podría usarse para diagnosticar diabetes mellitus, y más tarde fue pionera en la aplicación de métodos de reconocimiento de patrones a los datos espectroscópicos de RMN. [12] [13]

En 1995, Gary Siuzdak realizó experimentos de cromatografía líquida, espectrometría de masas, metabolómica [14] mientras trabajaba con Richard Lerner (entonces presidente del Instituto de Investigación Scripps) y Benjamin Cravatt, para analizar el líquido cefalorraquídeo de animales privados de sueño. Se observó una molécula de particular interés, la oleamida, y más tarde se demostró que tenía propiedades inductoras del sueño. Este trabajo es uno de los primeros experimentos de este tipo que combinan cromatografía líquida y espectrometría de masas en metabolómica.

En 2005, la primera base de datos de espectrometría de masas en tándem de metabolómica, METLIN, [15] [16] para caracterizar metabolitos humanos se desarrolló en el laboratorio de Siuzdak en el Instituto de Investigación Scripps. METLIN ha crecido desde entonces y, a partir del 1 de julio de 2019, METLIN contiene más de 450,000 metabolitos y otras entidades químicas, cada compuesto tiene datos experimentales de espectrometría de masas en tándem generados a partir de estándares moleculares a múltiples energías de colisión y en modos de ionización positiva y negativa. METLIN es el mayor depósito de datos de espectrometría de masas en tándem de su tipo. 2005 también fue el año en el que apareció por primera vez la revista académica especializada Metabolomics, fundada por su actual editor en jefe, el profesor Roy Goodacre.


En 2005, el laboratorio de Siuzdak se dedicó a identificar metabolitos asociados con la sepsis y en un esfuerzo por abordar el problema de identificar estadísticamente los metabolitos desregulados más relevantes en cientos de conjuntos de datos de LC / MS, se desarrolló el primer algoritmo para permitir la alineación no lineal de datos de metabolómica de espectrometría de masas. Llamado XCMS, [17] donde la "X" constituye cualquier tecnología cromatográfica, se ha desarrollado desde (2012) [18] como una herramienta en línea y en 2019 (con METLIN) tiene más de 30.000 usuarios registrados.


El 23 de enero de 2007, el Proyecto Metaboloma Humano, dirigido por David Wishart de la Universidad de Alberta, Canadá, completó el primer borrador del metaboloma humano, que consta de una base de datos de aproximadamente 2500 metabolitos, 1200 fármacos y 3500 componentes alimentarios. [19] [20] Se han puesto en marcha proyectos similares en varias especies de plantas, en particular Medicago truncatula [21] y Arabidopsis thaliana [22] durante varios años.

A mediados de 2010, la metabolómica todavía se consideraba un "campo emergente". [23] Además, se señaló que el progreso ulterior en el campo dependía en gran parte, de abordar "desafíos técnicos irresolubles", de la evolución técnica de la instrumentación de espectrometría de masas. [23]

En 2015, se demostró por primera vez el perfil del metaboloma en tiempo real. [24]

El metaboloma se refiere al conjunto completo de metabolitos de molécula pequeña (& lt1.5 kDa) [19] (como intermediarios metabólicos, hormonas y otras moléculas de señalización y metabolitos secundarios) que se encuentran dentro de una muestra biológica, como un solo organismo. . [25] [26] La palabra fue acuñada en analogía con transcriptómica y proteómica como el transcriptoma y el proteoma, el metaboloma es dinámico, cambiando de segundo a segundo. Aunque el metaboloma se puede definir con bastante facilidad, actualmente no es posible analizar toda la gama de metabolitos mediante un único método analítico.

La primera base de datos de metabolitos (llamada METLIN) para buscar datos de fragmentación de experimentos de espectrometría de masas en tándem fue desarrollada por el laboratorio Siuzdak en el Instituto de Investigación Scripps en 2005. [15] [16] METLIN contiene más de 450,000 metabolitos y otras entidades químicas, cada compuesto tiene datos experimentales de espectrometría de masas en tándem. En 2006, [17] el laboratorio de Siuzdak también desarrolló el primer algoritmo para permitir la alineación no lineal de datos metabolómicos de espectrometría de masas. Llamado XCMS, donde la "X" constituye cualquier tecnología cromatográfica, se ha desarrollado desde (2012) [18] como una herramienta en línea y en 2019 (con METLIN) tiene más de 30.000 usuarios registrados.

En enero de 2007, científicos de la Universidad de Alberta y la Universidad de Calgary completaron el primer borrador del metaboloma humano. La base de datos del metaboloma humano (HMDB) es quizás la base de datos espectral metabolómica pública más extensa hasta la fecha. [27] La ​​HMDB almacena más de 110.000 entradas de metabolitos diferentes. Catalogaron aproximadamente 1200 fármacos y 3500 componentes alimentarios que se pueden encontrar en el cuerpo humano, como se informa en la literatura. [19] Esta información, disponible en la Base de datos del metaboloma humano (www.hmdb.ca) y basada en el análisis de la información disponible en la literatura científica actual, está lejos de ser completa. [28] Por el contrario, se sabe mucho más sobre los metabolomas de otros organismos. Por ejemplo, se han caracterizado más de 50.000 metabolitos del reino vegetal y se han identificado y / o caracterizado muchos miles de metabolitos a partir de plantas individuales. [29] [30]

Cada tipo de célula y tejido tiene una "huella digital" metabólica única que puede dilucidar información específica de órganos o tejidos. Las bio-muestras utilizadas para el análisis metabolómico incluyen, entre otras, plasma, suero, orina, saliva, heces, músculo, sudor, aliento exhalado y líquido gastrointestinal. [31] La facilidad de recolección facilita una alta resolución temporal, y debido a que siempre están en equilibrio dinámico con el cuerpo, pueden describir al huésped como un todo. [32] El genoma puede decir lo que podría suceder, el transcriptoma puede decir lo que parece estar sucediendo, el proteoma puede decir qué hace que suceda y el metaboloma puede decir lo que ha sucedido y lo que está sucediendo. [33]

Los metabolitos son los sustratos, productos intermedios y productos del metabolismo. En el contexto de la metabolómica, un metabolito se define habitualmente como cualquier molécula de tamaño inferior a 1,5 kDa. [19] Sin embargo, existen excepciones según la muestra y el método de detección. Por ejemplo, las macromoléculas como las lipoproteínas y la albúmina se detectan de forma fiable en estudios de metabolómica del plasma sanguíneo basados ​​en RMN. [34] En la metabolómica basada en plantas, es común referirse a metabolitos "primarios" y "secundarios". [3] Un metabolito primario está directamente involucrado en el crecimiento, desarrollo y reproducción normales. Un metabolito secundario no está directamente involucrado en esos procesos, pero por lo general tiene una función ecológica importante. Los ejemplos incluyen antibióticos y pigmentos. [35] Por el contrario, en la metabolómica basada en humanos, es más común describir los metabolitos como endógenos (producidos por el organismo huésped) o exógenos. [36] [37] Los metabolitos de sustancias extrañas, como los fármacos, se denominan xenometabolitos. [38]

El metaboloma forma una gran red de reacciones metabólicas, donde las salidas de una reacción química enzimática son entradas para otras reacciones químicas. Estos sistemas se han descrito como hiperciclos. [ cita necesaria ]

La metabonómica se define como "la medida cuantitativa de la respuesta metabólica multiparamétrica dinámica de los sistemas vivos a los estímulos fisiopatológicos o la modificación genética". El origen de la palabra es del griego μεταβολή cambio de significado y nomos es decir, un conjunto de reglas o un conjunto de leyes. [39] Este enfoque fue iniciado por Jeremy Nicholson en la Universidad de Murdoch y se ha utilizado en toxicología, diagnóstico de enfermedades y varios otros campos. Históricamente, el enfoque de la metabonómica fue uno de los primeros métodos en aplicar el alcance de la biología de sistemas a los estudios del metabolismo. [40] [41] [42]

Ha habido cierto desacuerdo sobre las diferencias exactas entre 'metabolómica' y 'metabonómica'. La diferencia entre los dos términos no está relacionada con la elección de la plataforma analítica: aunque la metabonómica está más asociada con la espectroscopia de RMN y la metabolómica con técnicas basadas en espectrometría de masas, esto se debe simplemente a los usos entre diferentes grupos que han popularizado los diferentes términos. Si bien todavía no hay un acuerdo absoluto, existe un consenso creciente de que la 'metabolómica' pone un mayor énfasis en el perfil metabólico a nivel celular u orgánico y se ocupa principalmente del metabolismo endógeno normal. La 'metabonómica' amplía el perfil metabólico para incluir información sobre las perturbaciones del metabolismo causadas por factores ambientales (incluida la dieta y las toxinas), los procesos de enfermedades y la participación de influencias extragenómicas, como la microflora intestinal. Esta no es una diferencia trivial. Los estudios metabolómicos deberían, por definición, excluir las contribuciones metabólicas de fuentes extragenómicas, porque son externas al sistema que se está estudiando. Sin embargo, en la práctica, dentro del campo de la investigación de enfermedades humanas, todavía existe un gran grado de superposición en la forma en que se utilizan ambos términos y, de hecho, a menudo son sinónimos. [43]

La exometabolómica, o "huella metabólica", es el estudio de los metabolitos extracelulares. Utiliza muchas técnicas de otros subcampos de la metabolómica y tiene aplicaciones en el desarrollo de biocombustibles, el bioprocesamiento, la determinación del mecanismo de acción de los fármacos y el estudio de las interacciones intercelulares. [44]

El flujo de trabajo típico de los estudios de metabolómica se muestra en la figura. Primero, se recolectan muestras de tejido, plasma, orina, saliva, células, etc. Luego, se extraen los metabolitos a menudo con la adición de estándares internos y derivatización. [45] Durante el análisis de la muestra, se cuantifican los metabolitos (cromatografía líquida o cromatografía de gases junto con espectroscopía MS y / o RMN). Los datos de salida sin procesar se pueden utilizar para la extracción de características de metabolitos y luego se procesan antes del análisis estadístico (como PCA). Se encuentran disponibles muchas herramientas y software bioinformáticos para identificar asociaciones con estados de enfermedad y resultados, determinar correlaciones significativas y caracterizar firmas metabólicas con el conocimiento biológico existente. [46]

Métodos de separación Editar

Inicialmente, los analitos en una muestra metabolómica comprenden una mezcla muy compleja. Esta compleja mezcla se puede simplificar antes de la detección separando algunos analitos de otros. La separación logra varios objetivos: los analitos que no pueden ser resueltos por el detector se pueden separar en este paso en el análisis de MS. Se reduce la supresión de iones. El tiempo de retención del analito sirve como información con respecto a su identidad. Este paso de separación no es obligatorio y a menudo se omite en los enfoques basados ​​en RMN y "escopeta", como la lipidómica de escopeta.

La cromatografía de gases (GC), especialmente cuando se interconecta con la espectrometría de masas (GC-MS), es una técnica de separación ampliamente utilizada para el análisis metabolómico. [47] GC ofrece una resolución cromatográfica muy alta y se puede utilizar junto con un detector de ionización de llama (GC / FID) o un espectrómetro de masas (GC-MS). El método es especialmente útil para la identificación y cuantificación de moléculas pequeñas y volátiles. [48] ​​Sin embargo, una limitación práctica de GC es el requisito de derivatización química para muchas biomoléculas, ya que solo las sustancias químicas volátiles pueden analizarse sin derivatización. En los casos en que se requiera un mayor poder de resolución, se puede aplicar la cromatografía bidimensional (GCxGC).

La cromatografía líquida de alta resolución (HPLC) se ha convertido en la técnica de separación más común para el análisis metabolómico. Con el advenimiento de la ionización por electropulverización, la HPLC se acopló a la EM. A diferencia de la GC, la HPLC tiene una resolución cromatográfica más baja, pero no requiere derivatización para las moléculas polares y separa las moléculas en la fase líquida. Además, la HPLC tiene la ventaja de que se puede medir una gama mucho más amplia de analitos con una mayor sensibilidad que los métodos de GC. [49]

La electroforesis capilar (CE) tiene una eficacia de separación teórica más alta que la HPLC (aunque requiere mucho más tiempo por separación) y es adecuada para su uso con una gama más amplia de clases de metabolitos que la GC. Como para todas las técnicas electroforéticas, es más apropiada para analitos cargados. [50]

Métodos de detección Editar

La espectrometría de masas (MS) se utiliza para identificar y cuantificar metabolitos después de la separación opcional por GC, HPLC o CE. GC-MS fue la primera técnica con guiones que se desarrolló. La identificación aprovecha los distintos patrones en los que existen fragmentos de analitos que pueden considerarse como una biblioteca de huellas dactilares espectrales de masas que permiten la identificación de un metabolito de acuerdo con este patrón de fragmentación [ ejemplo necesario ]. La EM es sensible y puede ser muy específica. También hay una serie de técnicas que utilizan la EM como tecnología independiente: la muestra se infunde directamente en el espectrómetro de masas sin separación previa, y la EM proporciona suficiente selectividad para separar y detectar metabolitos.

Para el análisis por espectrometría de masas, los analitos deben recibir una carga y transferirse a la fase gaseosa. La ionización electrónica (EI) es la técnica de ionización más común que se aplica a las separaciones por GC, ya que es susceptible de presiones bajas. La IE también produce fragmentación del analito, proporcionando información estructural al tiempo que aumenta la complejidad de los datos y posiblemente oscurece el ion molecular. La ionización química a presión atmosférica (APCI) es una técnica de presión atmosférica que se puede aplicar a todas las técnicas de separación anteriores. APCI es un método de ionización en fase gaseosa de ionización ligeramente más agresiva que ESI, que es adecuado para compuestos menos polares. La ionización por electropulverización (ESI) es la técnica de ionización más común aplicada en LC / MS. Esta ionización suave es más exitosa para moléculas polares con grupos funcionales ionizables. Otra técnica de ionización blanda comúnmente utilizada es la ionización por electropulverización secundaria (SESI).

El análisis de masas basado en superficies ha experimentado un resurgimiento en la última década, con nuevas tecnologías de MS centradas en aumentar la sensibilidad, minimizar el fondo y reducir la preparación de muestras. La capacidad de analizar metabolitos directamente de biofluidos y tejidos continúa desafiando la tecnología actual de la EM, en gran parte debido a los límites impuestos por la complejidad de estas muestras, que contienen de miles a decenas de miles de metabolitos. Entre las tecnologías que se están desarrollando para abordar este desafío se encuentra la nanoestructura iniciadora MS (NIMS), [51] [52] un enfoque de desorción / ionización que no requiere la aplicación de matriz y, por lo tanto, facilita la identificación de moléculas pequeñas (es decir, metabolitos). También se usa MALDI, sin embargo, la aplicación de una matriz MALDI puede agregar un fondo significativo en & lt1000 Da que complica el análisis del rango de masa baja (es decir, metabolitos). Además, el tamaño de los cristales de matriz resultantes limita la resolución espacial que se puede lograr en la formación de imágenes de tejidos. Debido a estas limitaciones, se han aplicado varios otros enfoques de desorción / ionización sin matriz al análisis de biofluidos y tejidos.

La espectrometría de masas de iones secundarios (SIMS) fue uno de los primeros enfoques de desorción / ionización sin matriz utilizados para analizar metabolitos de muestras biológicas. [ cita necesaria ] SIMS utiliza un haz de iones primarios de alta energía para desorber y generar iones secundarios a partir de una superficie. La principal ventaja de SIMS es su alta resolución espacial (tan pequeña como 50 nm), una característica poderosa para la obtención de imágenes de tejidos con EM. Sin embargo, SIMS aún no se ha aplicado fácilmente al análisis de biofluidos y tejidos debido a su sensibilidad limitada a & gt500 Da y la fragmentación del analito generada por el haz de iones primarios de alta energía. La ionización por electropulverización por desorción (DESI) es una técnica sin matriz para analizar muestras biológicas que utiliza un pulverizador de disolvente cargado para desorber los iones de una superficie. Las ventajas de DESI son que no se requiere una superficie especial y el análisis se realiza a presión ambiente con acceso completo a la muestra durante la adquisición. Una limitación de DESI es la resolución espacial porque "enfocar" la pulverización de disolvente cargada es difícil. Sin embargo, un desarrollo reciente denominado ESI por ablación con láser (LAESI) es un enfoque prometedor para sortear esta limitación. [ cita necesaria ] Más recientemente, las técnicas de trampa de iones, como la espectrometría de masas orbitrap, también se aplican a la investigación de la metabolómica. [53]

La espectroscopia de resonancia magnética nuclear (RMN) es la única técnica de detección que no se basa en la separación de los analitos, por lo que la muestra puede recuperarse para análisis posteriores. Todos los tipos de metabolitos de moléculas pequeñas se pueden medir simultáneamente; en este sentido, la RMN está cerca de ser un detector universal. Las principales ventajas de la RMN son la alta reproducibilidad analítica y la sencillez de preparación de la muestra. Prácticamente, sin embargo, es relativamente insensible en comparación con las técnicas basadas en espectrometría de masas. [54] [55] En la tabla se muestra una comparación de los métodos metabolómicos más utilizados.

Aunque la RMN y la EM son las más utilizadas, las técnicas modernas son otros métodos de detección que se han utilizado. Estos incluyen resonancia ciclotrónica de iones por transformada de Fourier, [56] espectrometría de movilidad iónica, [57] detección electroquímica (acoplada a HPLC), espectroscopia Raman y radiomarcaje (cuando se combinan con cromatografía de capa fina). [ cita necesaria ]

Los datos generados en metabolómica suelen consistir en mediciones realizadas en sujetos en diversas condiciones. Estas medidas pueden ser espectros digitalizados o una lista de características de metabolitos. En su forma más simple, esto genera una matriz con filas correspondientes a sujetos y columnas correspondientes a características de metabolitos (o viceversa). [7] Actualmente se encuentran disponibles varios programas estadísticos para el análisis de datos tanto de RMN como de espectrometría de masas. Ya hay disponible una gran cantidad de software gratuito para el análisis de los datos metabolómicos que se muestran en la tabla. Algunas herramientas estadísticas enumeradas en la tabla fueron diseñadas para análisis de datos de RMN y también fueron útiles para datos de EM. [58] Para los datos de espectrometría de masas, se dispone de software que identifica moléculas que varían en grupos de sujetos sobre la base del valor de masa sobre carga y, a veces, el tiempo de retención según el diseño experimental. [59]

Una vez que se determina la matriz de datos de metabolitos, se pueden utilizar técnicas de reducción de datos no supervisadas (por ejemplo, PCA) para dilucidar patrones y conexiones. En muchos estudios, incluidos los que evalúan la toxicidad de los fármacos y algunos modelos de enfermedades, se desconocen los metabolitos de interés. a priori. Esto hace que los métodos no supervisados, aquellos sin supuestos previos de pertenencia a una clase, sean una primera opción popular. El más común de estos métodos incluye el análisis de componentes principales (PCA), que puede reducir de manera eficiente las dimensiones de un conjunto de datos a unos pocos que explican la mayor variación. [32] Cuando se analiza en el espacio PCA de dimensiones inferiores, se pueden detectar agrupaciones de muestras con huellas dactilares metabólicas similares. Los algoritmos de PCA tienen como objetivo reemplazar todas las variables correlacionadas por un número mucho menor de variables no correlacionadas (denominadas componentes principales (PC)) y conservar la mayor parte de la información en el conjunto de datos original. [60] Este agrupamiento puede dilucidar patrones y ayudar en la determinación de biomarcadores de enfermedades, metabolitos que se correlacionan más con la pertenencia a una clase.

Los modelos lineales se utilizan comúnmente para datos metabolómicos, pero se ven afectados por la multicolinealidad. Por otro lado, las estadísticas multivariadas son métodos prósperos para datos metabolómicos correlacionados de alta dimensión, de los cuales el más popular es la regresión de Proyección a Estructuras Latentes (PLS) y su versión de clasificación PLS-DA. Otros métodos de extracción de datos, como el bosque aleatorio, las máquinas de vectores de soporte, etc., reciben cada vez más atención para el análisis de datos metabolómicos no dirigidos. [61] En el caso de los métodos univariados, las variables se analizan una a una utilizando herramientas estadísticas clásicas (como la prueba t de Student, ANOVA o modelos mixtos) y solo se consideran relevantes aquellas con valores p suficientemente pequeños. [31] Sin embargo, se deben utilizar estrategias de corrección para reducir los falsos descubrimientos cuando se realizan comparaciones múltiples. Para el análisis multivariado, los modelos siempre deben validarse para garantizar que los resultados se puedan generalizar.

El aprendizaje automático también es una herramienta poderosa que se puede utilizar en el análisis metabolómico. Recientemente, los autores de un artículo publicado en Analytical Chemistry, desarrollaron un software de predicción del tiempo de retención llamado Retip. Esta herramienta, desarrollada en colaboración con NGALAB, el West Coast Metabolomics Center y Riken, permite a todos los laboratorios aplicar la inteligencia artificial a la predicción del tiempo de retención de moléculas pequeñas en matrices complejas, como plasma humano, plantas, alimentos o microbios. La predicción del tiempo de retención aumenta la tasa de identificación en cromatografía líquida y posteriormente conduce a una mejor interpretación biológica de los datos metabolómicos. [62]

La evaluación de la toxicidad / toxicología mediante el perfil metabólico (especialmente de muestras de orina o plasma sanguíneo) detecta los cambios fisiológicos causados ​​por la agresión tóxica de una sustancia química (o mezcla de sustancias químicas). En muchos casos, los cambios observados pueden estar relacionados con síndromes específicos, p. Ej. una lesión específica en el hígado o el riñón. Esto es de particular relevancia para las compañías farmacéuticas que desean probar la toxicidad de posibles fármacos candidatos: si un compuesto puede eliminarse antes de que llegue a los ensayos clínicos por motivos de toxicidad adversa, se ahorra el enorme gasto de los ensayos. [43]

Para la genómica funcional, la metabolómica puede ser una excelente herramienta para determinar el fenotipo causado por una manipulación genética, como la deleción o inserción de genes. A veces, esto puede ser un objetivo suficiente en sí mismo, por ejemplo, para detectar cualquier cambio fenotípico en una planta modificada genéticamente destinada al consumo humano o animal. Más interesante es la perspectiva de predecir la función de genes desconocidos en comparación con las perturbaciones metabólicas causadas por la deleción / inserción de genes conocidos. Es muy probable que tales avances provengan de organismos modelo como Saccharomyces cerevisiae y Arabidopsis thaliana. El laboratorio Cravatt del Instituto de Investigación Scripps ha aplicado recientemente esta tecnología a sistemas de mamíferos, identificando la norte-aciltaurinas como sustratos endógenos previamente no caracterizados para la enzima amida hidrolasa de ácido graso (FAAH) y los éteres de monoalquilglicerol (MAGE) como sustratos endógenos para la hidrolasa no caracterizada KIAA1363. [63] [64]

La metabologenómica es un enfoque novedoso para integrar datos de metabolómica y genómica mediante la correlación de metabolitos exportados por microbios con genes biosintéticos predichos. [65] Este método de emparejamiento basado en bioinformática permite el descubrimiento de productos naturales a mayor escala mediante el perfeccionamiento de los análisis metabolómicos no dirigidos para identificar moléculas pequeñas con biosíntesis relacionada y centrarse en aquellas que pueden no tener estructuras previamente conocidas.

La fluxómica es un desarrollo posterior de la metabolómica. La desventaja de la metabolómica es que solo proporciona al usuario información del nivel de estado estable, mientras que la fluxómica determina las velocidades de reacción de las reacciones metabólicas y puede rastrear metabolitos en un sistema biológico a lo largo del tiempo.

La nutrigenómica es un término generalizado que vincula la genómica, la transcriptómica, la proteómica y la metabolómica con la nutrición humana. En general, un metaboloma en un fluido corporal dado está influenciado por factores endógenos como la edad, el sexo, la composición corporal y la genética, así como por las patologías subyacentes. La microflora del intestino grueso también es un factor de confusión potencial muy importante de los perfiles metabólicos y podría clasificarse como un factor endógeno o exógeno. Los principales factores exógenos son la dieta y los medicamentos. Luego, la dieta se puede descomponer en nutrientes y no nutrientes. La metabolómica es un medio para determinar un punto final biológico, o huella metabólica, que refleja el equilibrio de todas estas fuerzas en el metabolismo de un individuo. [66]


El término espectrofotómetro puede referirse a una gran variedad de instrumentos que miden la luz, con la definición exacta dependiendo del área de la ciencia o la industria. In all cases the term ‘photo’ is used to indicate that the spectrometer is for the quantitative measurement of light intensity with wavelength. Within academic research (particularly chemistry and biology laboratories) the term spectrophotometer is used specifically to refer to a spectrometer which measures the absorption of light by a sample and that definition will be used here.

Figure 4: Simplified diagram of a single beam spectrophotometer.

A stylised layout of a basic single beam spectrophotometer is shown in Figure 4. It comprises a white light source which is usually either a combination of a deuterium arc lamp to cover the UV range and a tungsten halogen lamp to cover the visible or a single Xenon arc lamp to cover the entire range. This is followed by an excitation monochromator which selects the wavelength of light that reaches the sample. This light is then either transmitted through the sample (as shown in Figure 4) for transparent samples such as solutions or reflected off the surface for opaque samples. The intensity of the transmitted or reflected light is then monitored using a detector which is typically a photomultiplier tube or silicon photodiode.

In addition to stand alone spectrophotometers, the functionality of a spectrophotometer can also be incorporated as a secondary feature into other spectrometers. An example of this is the FS5 Spectrofluorometer which comes with a transmission detector as standard and has all the functionality of a single beam spectrophotometer in addition to being a spectrofluorometer.

The most common measurement undertaken in a spectrophotometer is measuring the absorption spectrum of a sample. The excitation monochromator is scanned and the change in light intensity transmitted through the sample recorded on the detector. This is then repeated with a reference sample and the absorption spectrum calculated as shown in Figure 5 for a solution of fluorescein in phosphate buffered saline.

Figure 5: Absorption spectrum of fluorescein measured using the FS5 Spectrofluorometer.

A much more advanced version of a spectrophotometer is a transient absorption spectrometer, which can measure the evolution of the absorption spectrum with time and is essential for looking at temporary species generated through chemical reactions or short lived photoexcited states. The operation and design of transient absorption spectrometers are beyond the scope of this article but you can learn more in our introduction to transient absorption using the Edinburgh Instruments LP980 Transient Absorption Spectrometer.

Figure 6: Edinburgh Instruments LP980 Transient Absorption Spectrometer.


Protein mass spectrometry applications

Mass spectrometry measures the m / z ratio of ions to identify and quantify molecules in simple and complex mixtures. MS has become invaluable across a broad range of fields and applications, including proteomics. The development of high-throughput and quantitative MS proteomics workflows within the last two decades has expanded the scope of what we know about protein structure, function and modification, as well as global protein dynamics.

This overview outlines the role of mass spectrometry in the field of proteomics and reviews MS methodology and instrumentation. It also touches on sample preparation and liquid chromatography–based separation prior to MS analysis.

  • Determine protein structure, function, folding and interactions. from the mass of its peptide fragments.
  • Detect specific post-translational modifications throughout complex biological mixtures using workflows for phosphoproteomics and protein glycosylation. (relative or absolute) in a given sample.
  • Monitor enzyme reactions, chemical modifications and protein digestion.
  • Perform forensic analyses such as confirmation of drug abuse.
  • Detect disease biomarkers (e.g., newborns screened for metabolic diseases).

All mass spectrometers have an ion source, a mass analyzer and an ion detector. The nature of these components varies based on the purpose of the mass spectrometer, the type of data required, and the physical properties of the sample. Samples are loaded into the mass spectrometer in liquid, gas or dried form and then vaporized and ionized by the ion source (e.g., APCI, DART, ESI).

Schematic of the basic components of a mass spectrometer.

The charge that these molecules receive allows the mass spectrometer to accelerate the ions throughout the remainder of the system. The ions encounter electric and/or magnetic fields from mass analyzers, which deflect the paths of individual ions based on their m / z. Commonly used mass analyzers include time-of-flight [TOF], orbitraps, quadrupoles and ion traps, and each type has specific characteristics. Mass analyzers can be used to separate all analytes in a sample for global analysis, or they can be used like a filter to deflect only specific ions towards the detector.

Ions that have successfully been deflected by the mass analyzers then hit the ion detector. Most often, these detectors are electron multipliers or microchannel plates that emit a cascade of electrons when each ion hits the detector plate. This cascade results in amplification of each ion hit for improved sensitivity. This entire process is performed under an extreme vacuum (10 -6 to 10 -8 torr) to remove gas molecules and neutral and contaminating non-sample ions, which can collide with sample ions and alter their paths or produce non-specific reaction products.

Newer Thermo Scientific Orbitrap technology captures ions around a central spindle electrode and then analyzes their m / z values as they move across the spindle with different harmonic oscillation frequencies.

Mass spectrometers are connected to computer-based software platforms that measure ion oscillation frequencies and acquire mass spectra using image current detection. Data analysis programs detect ions and organize them by their individual m / z values and relative abundance. These ions can then be identified via established databases that predict the identity of the molecule based on its m / z valor.

Watch this video to learn more about the Orbitrap Fusion Mass Spectrometer

Diagram of a sector† mass spectrometer. A sample is injected into the mass spectrometer, and the molecules are ionized and accelerated. The ions are then separated by mass and charge by the mass analyzer via electromagnetic deflection, and the ions that are properly aligned are detected and amplified. The entire system is under intense vacuum during the entire process. After signal amplification, the data that is generated reports on the relative abundance of each ion based on its mass-to-charge (m/z) ratio. †Although sector instruments have decreased in use due to improvements in mass analyzers (e.g., quadrupole, orbitrap), this simplified diagram conveys a key principle of mass spectrometry, which is its ability to select and analyze specific ions in a complex sample.

Tandem mass spectrometry (MS/MS)

Tandem mass spectrometry (MS/MS) offers additional information about specific ions. In this approach, distinct ions of interest are in a quadrupole filter based on their m / z during the first round of MS and are fragmented by a number of different dissociation methods. One such method involves colliding the ions with a stream of inert gas, which is known as collision-induced dissociation (CID) or higher energy collision dissociation (HCD). Other methods of ion fragmentation include electron-transfer dissociation (ETD) and electron-capture dissociation (ECD).

These fragments are then separated based on their individual m / z ratios in a second round of MS. MS/MS is commonly used to sequence proteins and oligonucleotides because the fragments can be used to match predicted peptide or nucleic acid sequences, respectively, that are found in databases such as IPI, RefSeq and UniProtKB/Swiss-Prot. These sequence fragments can then be organized en silico into full-length sequence predictions.

Diagram of tandem mass spectrometry (MS/MS). A sample is injected into the mass spectrometer, ionized, accelerated and analyzed by mass spectrometry (MS1). Ions from the MS1 spectra are then selectively fragmented and analyzed by a second stage of mass spectrometry (MS2) to generate the spectra for the ion fragments. While the diagram indicates separate mass analyzers (MS1 and MS2), some instruments utilize a single mass analyzer for both rounds of MS.

Biological samples are often quite complex and contain molecules that can mask the detection of the target molecule, such as when the sample exhibits a large dynamic concentration range between the target analyte(s) and other molecules in the sample. Two methods of separation are commonly used to partition the target analyte(s) from the other molecules in a sample.

Gas chromatography (GC) and liquid chromatography (LC)

Gas chromatography (GC) and liquid chromatography (LC) are common methods of pre-MS separation that are used when analyzing complex gas or liquid samples by MS, respectively. Liquid chromatography–mass spectrometry (LC-MS) is typically applied to the analysis of thermally unstable and nonvolatile molecules (e.g., sensitive biological fluids), while gas chromatography–mass spectrometry (GC-MS) is used for the analysis of volatile compounds such as petrochemicals. LC-MS and GC-MS also use different methods for ionization of the compound as it is introduced into the mass spectrometer. With LC-MS, electrospray ionization (ESI) is commonly applied, resulting in the production of aerosolized ions. With GC-MS, the sample may be ionized directly or indirectly via ESI.

Cromatografía líquida de alta resolución (HPLC)

High performance liquid chromatography (HPLC) is the most common separation method to study biological samples by MS or MS/MS (termed LC-MS o LC-MS/MS, respectively), because the majority of biological samples are liquid and nonvolatile. LC columns have small diameters (e.g., 75 μm nanoHPLC) and low flow rates (e.g., 200 nL/min), which are ideal for minute samples. Additionally, "in-line" liquid chromatography (LC linked directly to MS) provides a high-throughput approach to sample analysis, enabling the elution of multiple analytes through the column at different rates to be immediately analyzed by MS. For example, 1 to 5 peptides in a complex biological mixture can be sequenced per second by in-line LC-MS/MS.

Example of in-line LC-MS/MS system. Thermo Scientific Q Exactive Plus with Dionex UltiMate 3000 UHPLC.


Systems Biology as Defined by NIH

It used to be as simple as “the knee bone connected to the thigh bone.” Now scientists use systems biology approaches to understand the big picture of how all the pieces interact in an organism. The above illustration depicts an interactome, the whole set of molecular interactions in cells. The interactome is considered an essential systems biology resource.

Ask five different astrophysicists to define a black hole, the saying goes, and you’ll get five different answers. But ask five biomedical researchers to define systems biology, and you’ll get 10 different answers . . . or maybe more.

Systems biology is an approach in biomedical research to understanding the larger picture—be it at the level of the organism, tissue, or cell—by putting its pieces together. It’s in stark contrast to decades of reductionist biology, which involves taking the pieces apart.

Yet with its complicated flow charts that can (in the words of T.S. Eliot) “follow like a tedious argument of insidious intent,” systems biology has scared away more than a few researchers. Still others fail to fully appreciate its usefulness because it lacks a concise, unified definition.

“There [are] an endless number of definitions,” said Ron Germain, chief of NIAID’s new Laboratory of Systems Biology, NIH’s first organized foray into systems biology, which has been nearly a decade in the making. “It’s even worse than the elephant,” that infamous elephant that stymies the attempts of blind men to describe it because each feels just one part.

“Some people think of it as bioinformatics, taking an enormous amount of information and processing it,” Germain said. “The other school of thought thinks of it as computational biology, computing on how the systems work. You need both of these parts.”

The new NIAID lab reflects an intellectual journey that Germain and some of his NIH colleagues embarked upon as the Human Genome Project was nearing completion.

If the NIAID Systems Biology Laboratory were a symphony orchestra, lab chief Ron Germain would be its conductor-musician. As conductor, Germain provides the necessary structure for tempo and harmony. As musician, he provides the immunology base, essentially the study of macrophages. He has recruited "orchestra" members for the lab who have the skills to work on their own but are also able to work together in the name of systems biology.

At that time, circa 2001, biology was rich in genomic data proteomics had come of age and immunologists had identified many cellular and even molecular components of the immune system. Yet predicting immune system behavior remained as elusive as ever.

Whether a systems biology lab could tease out answers was far from clear. But despite the risk, NIAID Director Anthony Fauci and Scientific Director Kathy Zoon committed a steady stream of resources. Together with Germain, they hoped for, and threw their energy into, a new approach to understanding the immune system that would better embrace experimental and computational techniques to explore connections in all their intricate glory.

The new lab, formed in early 2011 from the Program in Systems Immunology and Infectious Disease Modeling (PSIIM), comprises Martin Meier-Schellersheim, head of the Computational Biology Unit Iain Fraser, head of the Signaling Systems Unit Aleksandra Nita-Lazar, head of the Cellular Networks Proteomics Unit John Tsang, head of the Systems Genomics and Bioinformatics Unit and Germain, chief of NIAID’s Lymphocyte Biology Section, providing the immunology base to this operation.

Independently, the unit heads interact with labs at NIH and beyond to establish and incorporate systems biology methods. In true team spirit, they work together to attack the most basic elements of immunology such as a response to an infection or vaccination.

Ironically, to best understand this new lab, we should take a reductionist approach to defining its parts. The system, it seems, is more than the sum of its parts.

Start with Computational Modeling

Sophisticated computational models and simulations represent integral parts of systems biology. In immunology, they are needed to understand the complex biochemical networks that regulate the interactions among the immune system’s cells and between these cells and infectious organisms.

Enter Martin Meier-Schellersheim, a physicist by training. He was the first to join NIAID’s venture in 2001, even before the launch of PSIIM. He has been most successful in empowering non–computational biologists to do computational biology. Indeed, he has helped foster the very team concept that underlies the new lab his software brings advanced computational capacity to a broad range of biologists.

This willing involvement of biologists is paramount because models need solid experimental data as input and as a reference to ensure reality checks. Otherwise the biological models are likely to be oversimplified either for lack of data or because their development suffers from poor communication between experimentalists and theorists.

Meier-Schellersheim’s primary software tool, called Simmune, facilitates the construction and simulation of realistic multiscale biological processes. He is also involved in the ongoing development of a systems biology markup language, SBML3, that can encode advanced models of cellular signaling pathways.

Add Some Cell Biology

Iain Fraser, a biochemist and molecular biologist interested in the mechanisms of cell signaling, arrived at NIH in 2008. As the lead high-throughput member of the lab, he has several powerful tools on hand to generate key data sets. These data sets ultimately feed into Meier-Schellersheim’s software to produce quantitative models.

Fraser’s tools include in-house genome-wide RNAi screens to characterize signaling network relationships in hematopoietic cells. Such screens are beginning to identify key components in innate immune pathogen-sensing networks. He interacts closely with the NIH-wide RNAi screening group at the NIH Chemical Genomics Center and also with the RNAi Global consortium.

Fraser said immune-system signaling networks can be unraveled by using proper systematic approaches to interpret complex data sets. He offers the example of Toll-like receptors (TLRs), which trigger an intricate cellular response that activates multiple intracellular signaling pathways.

Excessive activation can lead to chronic inflammatory disorders insufficient activation can render the host susceptible to infection. Unbiased screening approaches can help identify the components that allow the immune system to maintain a homeostatic balance in the face of microbial challenges.

One of Fraser’s early successes, using a systems biology approach, was demonstrating how a single protein kinase can mediate the anti-inflammatory effects of cyclic adenosine monophosphate in its crosstalk with TLR4.

Fraser sums up his time at NIH as establishing “the screening infrastructure for dissecting the response of the macrophage to a broad range of pathogenic stimuli.”

The “orchestra” members for NIAID’s new Systems Biology Laboratory include (clockwise from top left) Martin Meier-Schellersheim, head of the Computational Biology Unit Iain Fraser, head of the Signaling Systems Unit Aleksandra Nita-Lazar, head of the Cellular Networks Proteomics Unit and John Tsang, head of the Systems Genomics and Bioinformatics Unit.

One Generous Serving of Proteomics

Aleksandra Nita-Lazar is developing new methods to obtain quantitative data that improve our understanding of cell biology and also funnel key information into model building. Her domain is the system-wide analysis of the proteome, which has fallen behind DNA analysis partly for want of the necessary tools.

The difference stems from the accommodating nature of DNA. DNA is easily recognized, replicable, and relatively stable, whereas the folded structure of proteins can’t be amplified. Yet protein studies are essential in developing useful models for many reasons, Nita-Lazar said. Such studies can reveal the molecular constituents of a cell provide information about the biochemical state of the proteins and determine catalytic rates and the association and disassociation rates for molecular pairs.

Nita-Lazar uses mass spectrometry to investigate protein phosphorylation, the process of binding with a phosphate group, one of the most common modes of protein-function regulation. She can use the same protocols that Fraser helped develop, and the same cell types, to determine which proteins are phosphorylated in response to a particular stimulus, when they are phosphorylated, and how those data fit into what is known about the transcriptional response.

Nita-Lazar’s group, with Fraser’s group, has been harvesting from these screens the key components required for the signal to flow through a pathway and also for the induction of the inflammatory cytokine messenger RNAs that arise. “This kind of approach used to be dismissed as a fishing expedition,” said Nita-Lazar. The goal is not to catch that one big tuna, however nice that would be, but rather to see the whole school of fish, the entire ecosystem.

Mix Well with Genomics

The enormous amount of data being collected requires processing and analysis—computational tools plus genetics and genomics “to build things from the top down,” Germain said.

Enter John Tsang, the most recent member of Germain’s lab and the element that transformed the PSIIM into a full-fledged systems biology lab.

On the genomics side, Tsang collects and analyzes data on gene expression, miRNAs, epigenetic modifications, and commensal microbes, and he conducts experiments to connect signaling to gene expression. On the bioinformatics side, he develops and applies statistical tools for large and diverse data sets, such as data from microarrays and high-throughput screenings, with an eye toward network models that involve genes, proteins, miRNAs, and epigenetic states.

Tsang also heads bioinformatics at the trans-NIH Center for Human Immunology (CHI), using similar integrative genomics approaches to study the human immune system, such as immune reactions to the flu vaccine in patients.

A core theme for building network models is capitalizing on systematic perturbations and -omics technologies to measure genome-wide responses. From the TLR stimulations that Fraser studies to vaccinations and natural genetic variations in humans, “all are valuable perturbations to help us figure out the wiring and function of the underlying system,” said Tsang.

Oh, Right, Immunology Too

“So, what am I doing in all of this aside from raising money and pontificating?” Germain joked.

If the NIAID Systems Biology Laboratory could be considered a symphony orchestra, Germain would be its conductor-musician. As conductor, he provides the necessary structure for tempo and harmony. As the musician, he provides the immunology base, essentially the study of macrophages.

Germain has seen systems biology labs in which collaborations are more opportunistic than routine, the shortsighted result of building a building, adding smart people, and hoping it all works out. His strategy instead has been to recruit individuals with the necessary skill sets to work on their own but also to work together in the name of systems biology.

“We all have slightly different interests, but there is enough overlap between those interests for us to develop those core projects and for us to be invested in them,” said Fraser.

Don W. Fawcett, Emma Shelton

Macrophages and lymphocytes, the two types of immune cells pictured above, interact with their surroundings in complicated ways. NIH researchers are using systems biology approaches to understand the totality of such interactions.

Todos juntos ahora

To understand the response to infection or vaccination at an integrated level, the lab is studying the intersection of innate and adaptive receptor-dependent pathways and their control of gene networks. The researchers have bottom-up projects to understand and model the signaling within specific cell types at a fine-grained level.

And they have a top-down approach that uses inferences from perturbation analyses to probe the large-scale structure of the interactions not only at the cellular level, but also at the tissue and even the organism level.

To accomplish this grand goal, Germain said, the lab works in digestible chunks, focusing on pathogen sensing in key innate cells, such as macrophages, and the intersection of signaling by antigen receptors, cytokines, and TLRs in determining whether B cells become memory cells or long-lived plasma cells.

This process is critical for vaccine development. At the top-down level, the lab uses host genetics and microbiota variation to explore how the immune system’s set point is determined for responses to infections and vaccines.

This early into the chase, the lab has not yet published results on these pursuits, although a paper is pending on the lab’s work with CHI and the flu.

Towards a Trans-NIH Approach

Germain hopes the Laboratory of Systems Biology will serve “as an intellectual resource for people who are thinking in the systems mode and have their hands on these technologies [and want] to see how they could be applied to their work.”

He named the lab the Laboratory of Systems Biology with no mention of immunology or host-pathogen interaction to designate its raison d’être. Inspired by NIAID’s efforts, NCI and NHLBI are actively recruiting researchers to establish systems biology programs. NHLBI has just named Keji Zhao, senior investigator, as director of its new Systems Biology Center.

Meanwhile, the trans-NIH effort for a Center for Systems Biology is not dead. A search for a very senior systems biologist to develop and lead the center came up dry, and now the budgetary stresses have put the search on hold. But most NIH researchers understand that purely reductionist approaches to biology are no longer enough to solve complex biological problems and that integrated approaches are needed. David Levens (NCI), Dan Camerini (NIDDK), and Alan Michelson (NHLBI), along with Germain, continue to lead efforts for this trans-NIH initiative.

NIAID’s Laboratory of Systems Biology is “a smaller model of what the larger enterprise could be,” Germain said. The new lab “is very good for the NIH. We are getting applicants from top universities who want to come to the lab as fellows.”

And the NIH intramural research program is well suited for systems biology, with a long-term perspective and a retrospective review process that doesn’t require grant writing.

Germain helped change the NIH tenure process, too, to be sure that team science, and not necessarily a steady stream of published papers, is recognized and rewarded.

“Nothing happens if you don’t put work into it,” he added.

Reporter’s note:

Ron Germain does have his own definition of systems biology that he’s sticking to: a scientific approach that combines the principles of engineering, mathematics, physics, and computer science with extensive experimental data to develop a quantitative as well as a deep conceptual understanding of biological phenomena, permitting prediction and accurate simulation of complex (emergent) biological behaviors.


Contenido

Extracted from living systems Edit

Some of the oldest forms of biologics are extracted from the bodies of animals, and other humans especially. Important biologics include:

Some biologics that were previously extracted from animals, such as insulin, are now more commonly produced by recombinant DNA.

Produced by recombinant DNA Edit

As indicated the term "biologics" can be used to refer to a wide range of biological products in medicine. However, in most cases, the term "biologics" is used more restrictively for a class of therapeutics (either approved or in development) that are produced by means of biological processes involving recombinant DNA technology. These medications are usually one of three types:

  1. Substances that are (nearly) identical to the body's own key signalling proteins. Examples are the blood-production stimulating protein erythropoetin, or the growth-stimulating hormone named (simply) "growth hormone" or biosynthetic human insulin and its analogues. . These are similar to the antibodies that the human immune system uses to fight off bacteria and viruses, but they are "custom-designed" (using hybridoma technology or other methods) and can therefore be made specifically to counteract or block any given substance in the body, or to target any specific cell type examples of such monoclonal antibodies for use in various diseases are given in the table below.
  2. Receptor constructs (fusion proteins), usually based on a naturally occurring receptor linked to the immunoglobulin frame. In this case, the receptor provides the construct with detailed specificity, whereas the immunoglobulin-structure imparts stability and other useful features in terms of pharmacology. Some examples are listed in the table below.

Biologics as a class of medications in this narrower sense have had a profound impact on many medical fields, primarily rheumatology and oncology, but also cardiology, dermatology, gastroenterology, neurology, and others. In most of these disciplines, biologics have added major therapeutic options for the treatment of many diseases, including some for which no effective therapies were available, and others where previously existing therapies were clearly inadequate. However, the advent of biologic therapeutics has also raised complex regulatory issues (see below), and significant pharmacoeconomic concerns, because the cost for biologic therapies has been dramatically higher than for conventional (pharmacological) medications. This factor has been particularly relevant since many biological medications are used for the treatment of chronic diseases, such as rheumatoid arthritis or inflammatory bowel disease, or for the treatment of otherwise untreatable cancer during the remainder of life. The cost of treatment with a typical monoclonal antibody therapy for relatively common indications is generally in the range of €7,000–14,000 per patient per year.

Older patients who receive biologic therapy for diseases such as rheumatoid arthritis, psoriatic arthritis, or ankylosing spondylitis are at increased risk for life-threatening infection, adverse cardiovascular events, and malignancy. [14]

The first such substance approved for therapeutic use was biosynthetic "human" insulin made via recombinant DNA. Sometimes referred to as rHI, under the trade name Humulin, was developed by Genentech, but licensed to Eli Lilly and Company, who manufactured and marketed it starting in 1982.

Major kinds of biopharmaceuticals include:

  • Blood factors (Factor VIII and Factor IX)
  • Thrombolytic agents (tissue plasminogen activator) (insulin, glucagon, growth hormone, gonadotrophins)
  • Haematopoietic growth factors (Erythropoietin, colony-stimulating factors) (Interferons-α, -β, -γ) -based products (Interleukin-2) (Hepatitis B surface antigen) (Various)
  • Additional products (tumour necrosis factor, therapeutic enzymes)

Research and development investment in new medicines by the biopharmaceutical industry stood at $65.2 billion in 2008. [15] A few examples of biologics made with recombinant DNA technology include:

USAN/INN Trade name Indication Tecnología Mechanism of action
abatacept Orencia artritis reumatoide immunoglobin CTLA-4 fusion protein T-cell deactivation
adalimumab Humira rheumatoid arthritis, ankylosing spondylitis, psoriatic arthritis, psoriasis, ulcerative colitis, Crohn's disease monoclonal antibody TNF antagonist
alefacept Amevive chronic plaque psoriasis immunoglobin G1 fusion protein incompletely characterized
erythropoietin Epogen anemia arising from cancer chemotherapy, chronic renal failure, etc. recombinant protein stimulation of red blood cell production
etanercept Enbrel rheumatoid arthritis, ankylosing spondylitis, psoriatic arthritis, psoriasis recombinant human TNF-receptor fusion protein TNF antagonist
infliximab Remicade rheumatoid arthritis, ankylosing spondylitis, psoriatic arthritis, psoriasis, ulcerative colitis, Crohn's disease monoclonal antibody TNF antagonist
trastuzumab Herceptin breast cancer humanized monoclonal antibody HER2/neu (erbB2) antagonist
ustekinumab Stelara soriasis humanized monoclonal antibody IL-12 and IL-23 antagonist
denileukin diftitox Ontak cutaneous T-cell lymphoma (CTCL) Diphtheria toxin engineered protein combining Interleukin-2 and Diphtheria toxin Interleukin-2 receptor binder
golimumab Simponi rheumatoid arthritis, psoriatic arthritis, ankylosing spondylitis, ulcerative colitis monoclonal antibody TNF antagonist

Vacunas Editar

Many vaccines are grown in tissue cultures.

Terapia genética Editar

Viral gene therapy involves artificially manipulating a virus to include a desirable piece of genetic material.

With the expiration of numerous patents for blockbuster biologics between 2012 and 2019, the interest in biosimilar production, i.e., follow-on biologics, has increased. [16] Compared to small molecules that consist of chemically identical active ingredients, biologics are vastly more complex and consist of a multitude of subspecies. Due to their heterogeneity and the high process sensitivity, originators and follow-on biosimilars will exhibit variability in specific variants over time, however the safety and clinical performance of both originator and biosimilar biopharmaceuticals must remain equivalent throughout their lifecycle. [17] [18] Process variations are monitored by modern analytical tools (e.g., liquid chromatography, immunoassays, mass spectrometry, etc.) and describe a unique design space for each biologic.

Thus, biosimilars require a different regulatory framework compared to small-molecule generics. Legislation in the 21st century has addressed this by recognizing an intermediate ground of testing for biosimilars. The filing pathway requires more testing than for small-molecule generics, but less testing than for registering completely new therapeutics. [19]

In 2003, the European Medicines Agency introduced an adapted pathway for biosimilars, termed similar biological medicinal products. This pathway is based on a thorough demonstration of "comparability" of the "similar" product to an existing approved product. [20] Within the United States, the Patient Protection and Affordable Care Act of 2010 created an abbreviated approval pathway for biological products shown to be biosimilar to, or interchangeable with, an FDA-licensed reference biological product. [19] [21] A major hope linked to the introduction of biosimilars is a reduction of costs to the patients and the healthcare system. [dieciséis]

When a new biopharmaceutical is developed, the company will typically apply for a patent, which is a grant for exclusive manufacturing rights. This is the primary means by which the developer of the drug can recover the investment cost for development of the biopharmaceutical. The patent laws in the United States and Europe differ somewhat on the requirements for a patent, with the European requirements perceived as more difficult to satisfy. The total number of patents granted for biopharmaceuticals has risen significantly since the 1970s. In 1978 the total patents granted was 30. This had climbed to 15,600 in 1995, and by 2001 there were 34,527 patent applications. [22] In 2012 the US had the highest IP (Intellectual Property) generation within the biopharmaceutical industry, generating 37 percent of the total number of granted patents worldwide however, there is still a large margin for growth and innovation within the industry. Revisions to the current IP system to ensure greater reliability for R&D (research and development) investments is a prominent topic of debate in the US as well. [23] Blood products and other human-derived biologics such as breast milk have highly regulated or very hard-to-access markets therefore, customers generally face a supply shortage for these products. Institutions housing these biologics, designated as 'banks', often cannot distribute their product to customers effectively. [24] Conversely, banks for reproductive cells are much more widespread and available due to the ease with which spermatozoa and egg cells can be used for fertility treatment. [25]

Biopharmaceuticals may be produced from microbial cells (e.g., recombinant E. coli or yeast cultures), mammalian cell lines (see Cell culture) and plant cell cultures (see Plant tissue culture) and moss plants in bioreactors of various configurations, including photo-bioreactors. [26] Important issues of concern are cost of production (low-volume, high-purity products are desirable) and microbial contamination (by bacteria, viruses, mycoplasma). Alternative platforms of production which are being tested include whole plants (plant-made pharmaceuticals).

Transgenics Edit

A potentially controversial method of producing biopharmaceuticals involves transgenic organisms, particularly plants and animals that have been genetically modified to produce drugs. This production is a significant risk for the investor, due to production failure or scrutiny from regulatory bodies based on perceived risks and ethical issues. Biopharmaceutical crops also represent a risk of cross-contamination with non-engineered crops, or crops engineered for non-medical purposes.

One potential approach to this technology is the creation of a transgenic mammal that can produce the biopharmaceutical in its milk, blood, or urine. Once an animal is produced, typically using the pronuclear microinjection method, it becomes efficacious to use cloning technology to create additional offspring that carry the favorable modified genome. [27] The first such drug manufactured from the milk of a genetically modified goat was ATryn, but marketing permission was blocked by the European Medicines Agency in February 2006. [28] This decision was reversed in June 2006 and approval was given August 2006. [29]

European Union Edit

In the European Union, a biological medicinal product [30] is one of the active substance(s) produced from or extracted from a biological (living) system, and requires, in addition to physico-chemical testing, biological testing for full characterisation. The characterisation of a biological medicinal product is a combination of testing the active substance and the final medicinal product together with the production process and its control. Por ejemplo:

  • Production process – it can be derived from biotechnology or from other technologies. It may be prepared using more conventional techniques as is the case for blood or plasma-derived products and a number of vaccines.
  • Active substance – consisting of entire microorganisms, mammalian cells, nucleic acids, proteinaceous, or polysaccharide components originating from a microbial, animal, human, or plant source.
  • Mode of action – therapeutic and immunological medicinal products, gene transfer materials, or cell therapy materials.

Estados Unidos Editar

In the United States, biologics are licensed through the biologics license application (BLA), then submitted to and regulated by the FDA's Center for Biologics Evaluation and Research (CBER) whereas drugs are regulated by the Center for Drug Evaluation and Research. Approval may require several years of clinical trials, including trials with human volunteers. Even after the drug is released, it will still be monitored for performance and safety risks. The manufacture process must satisfy the FDA's "Good Manufacturing Practices", which are typically manufactured in a cleanroom environment with strict limits on the amount of airborne particles and other microbial contaminants that may alter the efficacy of the drug. [31]

Canadá Editar

In Canada, biologics (and radiopharmaceuticals) are reviewed through the Biologics and Genetic Therapies Directorate within Health Canada. [32]


Etiquetado

Package labeling is in the form of standardized pictures that must be affixed to the outside. The color and design of each label is prescribed in the IATA regulations. All labels must be at least 4 inches on the smallest side.

For the purposes of infectious substances, five different labels must be considered:

Category A

Category B

Hielo seco

Cargo Aircraft Only

Must be affixed if shipping volumes greater than 50 ml of a Category A substances can be halved for use on a smaller category A box.

Orientation Arrows

If shipping liquids, two such labels must be affixed to the package, on opposing sides.


Matt Bush

Assistant Professor
Química
(206) 543-7835
[email protected]
Faculty Website


Research Interests

Most proteins, particularly those that accomplish complicated tasks, form assemblies with other proteins and molecules that are critical to their function. Established structural biology tools are most effective for highly purified samples that have limited conformational variability, which makes it challenging to apply those methods to capture a systems-wide understanding of the structures, interactions, and dynamics that are present under different cellular conditions. Mass spectrometry is fast, sensitive, tolerant of heterogeneity, and has great potential for assemblies that are extremely challenging to characterize using established tools and for high-throughput structural genomics.

Gas-Phase Structural Biology. Gas-phase ions of assemblies can retain significant memories of their native structures in solution. Many measurements of stoichiometry, connectivity, and shape have shown that these aspects of assembly structure can be strongly correlated in both environments. Gas-phase techniques, including mass spectrometry, ion mobility, and ion chemistry will be used to probe the structures of biological assemblies. Accurate models of assemblies, including those that are heterogeneous, dynamic, and/or membrane-bound, will be built based on results from both gas-phase and complementary techniques.

Gas-Phase Ion Chemistry. Although many native aspects of biological assembly structure are preserved in the corresponding gas-phase ions, clearly at least some reorganization will occur. Unfortunately, the extents and scales of this reorganization remain poorly understood. A detailed understanding of gas-phase biological assembly ion structure will be developed, with the goal of enabling more accurate and rapid translation of experimental observables into parameters with meaningful uncertainties for building structural models. New gas-phase methods for transforming and fragmenting these ions to gain complementary structural insights will also be developed.

Mass Spectrometry of Large Ions. Existing mass spectrometers for gas-phase structural biology yield spectra with decreased sensitivity and increased spectral congestion with increasing assembly size. We intend to develop an instrument for single-ion, gas-phase structural biology that is ideally suited for very large and heterogeneous assemblies that are beyond the reach of current instrumental platforms.


Recursos

The Campus Chemical Instrument Center (CCIC) has world-class shared resources in high-field NMR, mass spectrometry, proteomics, and X-ray crystallography. The department's Biophysical Interaction and Characterization Facility (BICF) has analytical ultracentrifugation, CD spectroscopy, fluorescence, and calorimetry. The department also has excellent shared small-molecule NMR and mass spectrometry instrumentation.

Students in the Biochemistry division are eligible for the NIH T32 Molecular Biophysics Training Program (MBTP), and many labs interact with the outstanding nucleic acids community at OSU through the Center for RNA Biology.