Información

¿Ha creado la biología sintética nuevas plantas o animales a partir de 2013?

¿Ha creado la biología sintética nuevas plantas o animales a partir de 2013?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

He visto una charla en Ted.com donde el orador sugiere que la ciencia moderna puede crear nuevos microorganismos, como bacterias con un nuevo conjunto de rasgos predefinidos. Pero, ¿alguien ha creado ya una nueva especie de plantas o animales utilizando ADN sintético? Entonces, cuales son sus nombres?


Respondiendo tu pregunta

Bueno, teniendo en cuenta que hay una gran cantidad de instalaciones que se ocupan de la clonación de plantas y animales, así como de la alteración del ADN específico para crear una mejor planta o animal. Se han realizado pruebas con ratas para intentar crear ratas más fuertes e inteligentes, y se han realizado pruebas en innumerables otros animales para tratar de desarrollar inmunidad a la demencia y la enfermedad de Alzheimer. En las industrias agrícolas del mundo, a diario se diseñan nuevos tipos de maíz, tomates, arroz y otros tipos de cultivos, y con mucha frecuencia se fabrican nuevas versiones de estas plantas. El problema, sin embargo, es que una gran cantidad de estas plantas no se pueden plantar. Algunas plantas que se diseñan tienen mal sabor o son menos eficientes que la planta en la que se estaban modificando. En cuanto a inventar una nueva especie, debes ser más específico en cuanto a lo que estás preguntando. Si la ciencia crea un nuevo animal a partir de otro animal, es probable que pertenezca a la misma familia y género, como criar un perro de otro perro. Crear otro tipo de mamífero, reptil o bacteria que no sea parte de un género específico sería un gran avance, ya que estoy seguro de que todos los tipos de clonación y emparejamiento científico se han realizado con el mismo género y especie en general ... supongo que sin embargo, será posible diseñar formas de vida a nivel molecular en los próximos 50 a 100 años, a medida que la ciencia y la tecnología avanzan cada vez más. Entonces, en los próximos siglos, parecería lógico suponer que se crearían nuevas especies. Sin embargo, la práctica de crear nuevas especies, o incluso operar un laboratorio / instalación que se ocupe del concepto, es ilegal en un gran número de países y tiene varias pautas en otros.

Solo tengo 13 años, por lo que si alguna de esta información se va a utilizar en cualquier otro lugar, le aconsejo que no me cite como una fuente creíble. Toda esta información es de mi conocimiento, y mi conocimiento es de estudios escolares y lecturas personales. Sin embargo, esta es toda mi información. Si alguna redacción suena similar a otra fuente, tenga en cuenta que un cerebro humano funciona de manera similar a otro en varios aspectos y, a menudo, se encuentran coincidencias. Puedo asegurarles que si la información documentada arriba es verificada por expertos en plagio como mi propia redacción, me he tomado la libertad de escanear mi propio trabajo. Espero haber respondido a su pregunta y lamento la larga exención de responsabilidad de este párrafo.


La respuesta es no. En este momento (2016) solo hay dos organismos sintéticos que se están construyendo o se han construido.

El primero es un Mycoplasma genitalium sintético. Https://en.wikipedia.org/wiki/Mycoplasma_laboratorium Hecho por venter

La segunda es la levadura sintética, S. cerevisiae http://syntheticyeast.org/

Se ha hablado de la construcción de un genoma humano sintético ... pero eso es solo una charla.


Amyris

Tamas Bartfai PhD, Graham V Lees PhD, en El futuro del descubrimiento de fármacos, 2013

Gran biotecnología

Las grandes empresas de biotecnología, que tienen ventas de miles de millones, luchan por llegar a la categoría de “grandes farmacéuticas”, es decir, tener una línea de productos patentada en varias áreas de enfermedades y ventas de $ 20 mil millones o más por año. Parece difícil Amgen, Biogen-Idec, Celgene, Gilead y Vertex (ver Tabla 7.2) parecen estar estancados en las ventas de $ 3 a 15 mil millones y dos o un máximo de tres áreas de enfermedades. El progreso de empresas de productos biológicos como Amgen y Biogen-Idec en el descubrimiento de fármacos de moléculas pequeñas ha sido lento y errático. Las muy publicitadas moléculas pequeñas, como la BG12 de Biogen-Idec, un ácido dimetil fumárico, para igualar el fármaco de molécula pequeña para la esclerosis múltiple oral de Novartis, Gilenya, son resurgimientos de fármacos muy antiguos y representan un pequeño incremento en la investigación genuina y novedosa, aunque podrían resultar exitoso. La mayoría de los fármacos de molécula pequeña fuera de las grandes farmacéuticas provienen de un puñado de biotecnologías como Vertex, Aurora y Gilead, que han construido una máquina de descubrimiento de fármacos que es idéntica en capacidad, plataformas y habilidades químicas a la de las grandes farmacéuticas. e incluso es superior en algunos aspectos. Si sus prometedores ensayos conducen a NDA, y estas empresas continúan por este camino, podrían ser las empresas que podrían llenar algunos de los vacíos que dejaron las grandes farmacéuticas al abandonar algunas indicaciones importantes. El problema es que estas empresas ya hoy luchan por financiar los estudios de la fase 3. No obstante, parece que de 10 a 20 grandes empresas de biotecnología que cotizan en bolsa sobrevivirán a la expiración de las patentes de interferón beta, EPO, etc., y seguirán siendo desarrolladores de fármacos independientes en los próximos 10 a 15 años. Si son realmente rentables, inevitablemente se convertirán en objetivos de adquisición, como demostró la adquisición de Genzyme por parte de Sanofi este año. Estas adquisiciones han llevado hasta ahora sin excepción a recortes de investigación. Si bien se suman a la destreza financiera a corto plazo de las grandes farmacéuticas, a nivel mundial representan una pérdida de innovación.

Las grandes empresas de genéricos y de I + D + i exitosas como Teva o la gran empresa de CRO, I + D y genéricos, Dr. Reddy, merecen atención, ya que utilizan los ingresos de la rama de genéricos para mejorar su propia I + D para crear medicamentos novedosos. Sus habilidades en química médica, química de procesos y desarrollo pueden resultarles útiles y su base estable de ingresos les permite algunos proyectos de I + D + i, pero su alcance es limitado y avanzan con cuidado. Está claro que seguirán presentando una fuerte competencia en el ámbito genérico, pero no es probable que en los próximos 15 años se conviertan en empresas sólidas, multiterapéuticas y de I + D + i.


Luigi y Giovanni Aldini - Cuerpo galvanizador de criminal

Escrito Frankenstein, Mary Shelley se basó en la ciencia de su tiempo, incluida la experimentación eléctrica de Luigi Galvani y su sobrino Giovanni Aldini, cuyos sujetos de prueba incluían los cadáveres de criminales ejecutados, como se muestra en esta ilustración de 1804.

La leyenda de Fausto, que se remonta al mago bíblico Simon Magus que luchó contra San Pedro con magia, proporciona la piedra de toque para los temores de que los científicos sobrepasen la marca y desaten involuntariamente fuerzas destructivas. Fausto fue, por supuesto, el modelo del cuento con moraleja más famoso de la ciencia que incursiona en la creación de la vida: Mary Shelley's Frankenstein. La novela, publicada por primera vez de forma anónima en 1818 con un prólogo de Percy Shelley (el marido de Mary, de quien algunos sospechaban que era el autor), reinventa el mito de Fausto para la era naciente de la ciencia, basándose en la biología del abuelo de Charles Darwin, Erasmo, la química de Humphry Davy y la fisiología eléctrica del italiano Luigi Galvani. Percy Shelley escribió que las especulaciones de Erasmus Darwin, expuestas en obras como Zoonomia, o las leyes de la vida orgánica (1794), apoyó la idea de que la reanimación de la materia muerta de Victor Frankenstein "no fue algo imposible". Y el profesor de divulgación científica Adam Walker, amigo del químico Joseph Priestley, escribió que los experimentos de Galvani sobre fisiología eléctrica habían demostrado la "relación o afinidad [de la electricidad] con el principio vivo. " Hacer vida estaba en el aire a principios del siglo XIX, y Frankenstein parece, en retrospectiva, casi inevitable.

El médico de Mary Shelley y su monstruosa creación ahora se invocan como una respuesta instintiva a todas las nuevas intervenciones científicas en la vida. Ocupan un lugar destacado en la cobertura de los medios de comunicación sobre la fertilización in vitro (FIV) y la clonación ("El mito de Frankenstein se convierte en realidad", escribió el New York Times apropos IVF), modificación genética de cultivos de plantas ("Frankenfoods"), y ahora la creación de "formas de vida sintéticas" por biología sintética ("Frankenbugs"). El mensaje es claro: la tecnología así etiquetada es algo antinatural y peligroso, y merece nuestra firme desaprobación.

Slime primigenio

La prehistoria de la biología sintética no es toda fáustica. La aparente inclinación de la vida a surgir de la materia sin vida estimuló la noción de un principio animador que era omnipresente en el mundo, listo para avivar las sustancias cuando las circunstancias eran favorables. Desde este punto de vista, una propiedad que se conoció como la "fuerza vital" se inmiscuyó en los mismos componentes —los corpúsculos o moléculas— de la materia, y la vida apareció gradualmente cuando se acumuló una cantidad suficiente. En su extraña historia El sueño de D'Alembert (1769) el filósofo francés Denis Diderot compara el movimiento coherente de masas de “puntos vivos” en forma de moléculas con un enjambre de abejas, del tipo que Virgil creía que se podía conjurar de una vaca muerta. Como dijo el contemporáneo de Diderot, el naturalista francés George-Louis Leclerc, el conde de Buffon,

La vida del todo (animal o vegetal) parecería ser sólo el resultado de todas las acciones, de todas las pequeñas vidas separadas. . . de cada una de esas moléculas activas cuya vida es primitiva y aparentemente indestructible.

El vitalismo ha sido a menudo ridiculizado por los científicos de hoy como una especie de superstición precientífica, pero de hecho este tipo de hipótesis provisionales es precisamente lo que se necesita para que la ciencia avance en un problema difícil. Suponiendo que la vida era inmanente en la materia, los primeros científicos pudieron naturalizarla y distinguirla de una agencia misteriosa dada por Dios, y así convertirla en un objeto apropiado de estudio científico.

Los primeros químicos creían que el secreto de la vida debía residir en la composición química: animar la materia era solo una cuestión de obtener la mezcla correcta de ingredientes.

Dicho de esta manera, no debería sorprendernos que la síntesis de urea de Friedrich Wöhler (una molécula que hasta ahora solo podían producir los seres vivos) a partir de una sal de amonio en 1828 no representara una amenaza profunda para el vitalismo, a pesar de que a menudo se cita como el comienzo del fin. para la teoría. El potencial vital de las moléculas era una cuestión de grado, por lo que no había ninguna causa real de sorpresa de que una molécula asociada con los seres vivos pudiera estar hecha de materia aparentemente inanimada. De hecho, la apreciación naciente durante el siglo XIX de que la "química orgánica", la ciencia de las moléculas en su mayoría basadas en carbono producidas por los seres vivos y que las constituyen, era contigua al resto de la química solo profundizó el enigma de lo que es la vida, mientras que en al mismo tiempo, reforzando la opinión de que la vida era un asunto de científicos más que de teólogos.

Los primeros químicos creían que el secreto de la vida debía residir en la composición química: animar la materia era solo una cuestión de obtener la mezcla correcta de ingredientes. En 1835, el anatomista francés Félix Dujardin afirmó haber hecho la sustancia viva primordial triturando animales microscópicos hasta convertirlos en una pulpa gelatinosa. Cuatro años más tarde, el fisiólogo checo Jan Purkinje le dio a esta sustancia primordial un nombre: protoplasma, que se pensaba que era una especie de proteína y que estaba imbuido de la capacidad de moverse por sí solo.

En la década de 1860, el antiguo campeón de Charles Darwin, Thomas Henry Huxley, afirmó haber encontrado esta sustancia primitiva, que, según él, era la "base física de la vida", el "único tipo de materia que es común a todos los seres vivos". Identificó esta sustancia con una especie de limo en el que parecían estar incrustados organismos que habitan en el fondo del mar. El limo contenía solo los elementos carbono, hidrógeno, oxígeno y nitrógeno, dijo Huxley. (En realidad, su protoplasma resultó ser el producto de una reacción química entre el agua de mar y el alcohol utilizado para preservar los especímenes marinos de Huxley.) Mientras tanto, el principal defensor alemán del darwinismo, Ernst Haeckel, declaró que hay una especie de fuerza vital en todo materia, hasta el nivel de los átomos y las moléculas, el descubrimiento de la organización molecular en los cristales líquidos en la década de 1880 le pareció que reivindicaba la hipótesis.

Haeckel tenía razón al menos al centrarse en la organización. Desde que el fisiólogo alemán Theodor Schwann propuso a mediados del siglo XIX que toda la vida está compuesta de células, el concepto de protoplasma se enfrentó a la necesidad de explicar la estructura ordenada de la vida: la gelatina no era suficiente. La generación espontánea finalmente fue eliminada por los experimentos de Louis Pasteur y otros que demostraron que las mezclas estériles permanecían así si se sellaban para evitar el acceso a los microorganismos que Pasteur había identificado bajo el microscopio. Pero el vitalismo no murió en el proceso, sino que se transformó en la noción de "organización orgánica": la misteriosa propensión de los seres vivos a adquirir estructura y coordinación entre sus componentes moleculares, que los biólogos comenzaron a discernir cuando inspeccionaron las células bajo el microscopio. . En otras palabras, la organización de la vida aparente en la escala visible se extendió no solo al nivel celular sino más allá. Mientras tanto, la noción de un protoplasma universal se volvió insostenible una vez que la diversidad de los componentes moleculares de la vida, en particular la gama de enzimas proteicas, se hizo evidente a través del análisis químico a principios del siglo XX.

Primal Jelly tenía un notable canto de cisne. En 1899 el Boston Herald llevaba el titular “Creación de vida. . . Animales inferiores producidos por medios químicos ". Dejando de lado el corolario posiblemente irónico aducido en el titular "Explicación de la Inmaculada Concepción", el periódico describió la investigación del fisiólogo alemán Jacques Loeb, que trabajaba en el centro de biología marina en Woods Hole, Massachusetts. Loeb, de hecho, no había hecho nada tan notable como había demostrado que se podía inducir a un huevo de erizo de mar no fertilizado a someterse a partenogénesis, dividiéndose y desarrollándose, mediante la exposición a ciertas sales. Sin embargo, la visión más amplia de Loeb preparó el escenario para una entrevista en 1902 que informa que él dijo:

Quería tomar la vida en mis manos y jugar con ella. Quería manejarlo en mi laboratorio como lo haría con cualquier otra reacción química: ¡iniciarlo, detenerlo, variarlo, estudiarlo en cada condición, dirigirlo a mi voluntad!

Las palabras de Loeb suenan casi como el sueño desquiciado de un científico loco de Hollywood. Científico americano incluso apodó a Loeb "el Frankenstein científico". No hace falta decir que Loeb nunca fue capaz de hacer nada por el estilo, salvo su encuadre de controlar la vida a través de un Ingenieria perspectiva demostró ser profética, y fue presentada de manera más prominente en su libro La concepción mecanicista de la vida (1912).


Circuitos genéticos

En los estudios anteriores, los investigadores han utilizado elementos genéticos para desarrollar una variedad de circuitos genéticos, que pueden aplicarse ampliamente al proceso de regulación celular. Sin embargo, se vio limitado en el simple ensamblaje de partes o módulos reguladores de genes [5]. Por tanto, las últimas tendencias de investigación en este campo se han centrado en el desarrollo de un modo predecible y cuantitativo [6, 7]. Con la profundización de la investigación, se desarrollaron cada vez más máquinas celulares para controlar la expresión génica, como algunos motivos reguladores, incluidos interruptores genéticos, osciladores, amplificadores, promotores y represores [8].

Mecanismos reguladores celulares de circuitos genéticos.

La regulación celular cubre un amplio rango, incluido el nivel transcripcional, el nivel postranscripcional y el nivel postraduccional (Fig. 1) [9,10,11]. Los enfoques para la expresión génica a nivel transcripcional incluyen principalmente bibliotecas de promotores sintéticos [12, 13], sistema modular, ingeniería de maquinaria de transcripción [14, 15] y factor de transcripción [16]. Estos enfoques se han utilizado ampliamente en teoría y aplicaciones para diseñar y optimizar sistemas biológicos. Keasling y col. Sostuvo la opinión de que algunos elementos estructurales para el control postranscripcional pueden influir en la expresión de proteínas en función de una secuencia de ARNm particular [17]. Por ejemplo, los riboconmutadores son conmutadores genéticos que se regulan a niveles postranscripcionales, que generalmente existen en la región no traducida del ARNm del gen metabólico. Los riboconmutadores poseen la capacidad de detectar metabolitos de moléculas pequeñas y unirse a ellos, por lo que alteran la estructura secundaria del ARN para regular la expresión de los genes metabólicos correspondientes. Por tanto, los riboswitches se pueden utilizar para diseñar nuevos biosensores moleculares [18]. Por ejemplo, la expresión de genes informadores puede ser regulada por riboswitches para convertir señales enzimáticas en otras más detectables [19]. Además, los riboswitches también se pueden integrar en circuitos de genes más complejos para lograr efectos reguladores [20].

Relación entre la regulación de la transcripción, la regulación posterior a la transcripción y la regulación posterior a la traducción

Además de los interruptores genéticos, también se desarrollaron sistemas de interruptores genéticos más complejos para programar y controlar la salida eléctrica deseada. Por ejemplo, se incorporó un interruptor de palanca genético Escherichia coli inspirado en la idea de la ingeniería electrónica. Como red reguladora de genes sintética y biestable, el conmutador de palanca genético se compone de dos promotores reprimibles dispuestos en una red mutuamente inhibidora (P1 y P2) y dos represores (R1 y R2) (Fig. 2a). Cada promotor es inhibido por el represor, que es transcrito por el promotor opuesto. Presenta un umbral de conmutación casi perfecto bajo la conversión rápida entre estados estables mediante inducción química o térmica transitoria [21]. En general, como dispositivo práctico, el interruptor de palanca forma una unidad de memoria celular sintética y direccionable, y tiene una gran influencia en biotecnología, biocomputación y terapia génica.

a GFP: proteína verde fluorescente. Los interruptores de palanca poseen dos represores (R1 y R2) y dos promotores (P1 y P2). R1 es transcrito por P2 y puede inhibir P1. R2 es transcrito por P1 y puede inhibir P2. Además, R1 es inducido por Inducer1 y R2 es inducido por Inducer2. Los estados de transcripción se pueden invertir agregando inductores. B LacI inhibe la transcripción de TetR y luego TetR inhibe la expresión de CI. Finalmente, CI inhibe la expresión de LacI, LacI inhibe la transcripción de TetR y TetR inhibe la expresión de CI y GFP

La expresión de genes aguas abajo se puede controlar colocando los dominios de unión de las proteínas dentro de las regiones promotoras. Elowitz y Leibler construyeron una red oscilante en E. coli con tres proteínas represoras transcripcionales: LacI (el primer modelo de regulación génica bajo el control del operón lac) de E. coli, TetR (otro modelo de represión génica) del transposón de resistencia a la tetraciclina Tn10 y CI (un factor de transcripción común que funciona como un interruptor de palanca) del fago λ (Fig. 2b). LacI inhibe la transcripción de TetR y luego TetR inhibe la expresión de λCI.Finalmente, λCI inhibe la función de LacI, que construye un sistema de armonía con restricción mutua. Para una lectura visual del estado en células individuales, la proteína verde fluorescente (GFP) también se agrega al sistema y se induce periódicamente. Debido a la lentitud de las oscilaciones generadas con respecto al ciclo de división celular con períodos típicos de horas, el estado del oscilador debe transmitirse de generación en generación [22]. Tal "diseño de red racional" no solo puede conducir a la ingeniería de nuevos comportamientos celulares, sino también mejorar la comprensión de las redes que ocurren naturalmente.

La aplicación de circuitos genéticos.

Con el rápido desarrollo de la biología sintética durante las últimas décadas, el ajuste fino de la expresión génica se ha aplicado a muchos organismos y sistemas heterólogos en ingeniería metabólica y otros sistemas de biología sintética [23, 24, 25, 26]. En general, para mejorar la producción personalizada de metabolitos de interés industrial como biocombustibles o ácidos orgánicos, etc., las vías metabólicas diseñadas o rediseñadas se han convertido en un énfasis en los microbios [27]. Los investigadores han modulado varias rutas metabólicas relacionadas con la biofabricación que se originan a partir de diferentes fuentes y las han ensamblado en el organismo modelo para obtener rutas biosintéticas adecuadas. Los microbios reconstruidos poseen una mayor eficiencia de las vías metabólicas, lo que aumentará el título, el rendimiento y la productividad del producto final (TYP) y, por lo tanto, reducirá el costo de la producción a gran escala.

Por ejemplo, los interruptores de ARN se han aplicado con éxito para regular la expresión génica y modular el flujo metabólico en levaduras [28, 29]. Con el fin de disminuir la síntesis de subproductos, se implementó el ajuste fino de los niveles de expresión de GPP1 (glicerol-1 -fosfatofosfohidrolasa1) y PDC (piruvato descarboxilasa), que son responsables de la producción de glicerol y etanol. Chen y col. construyó dos interruptores de ARN para unir diferentes ARNm diana: sRNA-RHR2 (regulador de GPP1 sensible a tetraciclina) y sRNA-PDC6 (regulador de PDC sensible a teofilina). La cepa final poseía actividades enzimáticas disminuidas (28,3 y 48,4%) y producción de subproductos (91,9 y 59,5%), respectivamente. Además, los interruptores de ARN aumentaron la producción de ácido fumárico de 28,6 a 33,1 g / L usando Saccharomyces cerevisiae [30]. Estos resultados demostraron que la inserción de interruptores de ARN sintéticos fue capaz de reprimir la formación de subproductos sin sobrecargar el sistema de la célula huésped. Además, los interruptores de ARN se pueden modificar para reconocer nuevas moléculas pequeñas con diferentes especificidades y mecanismos utilizando otras estrategias de selección. En otro trabajo, se desarrollaron interruptores de ARN sensibles a ligandos basados ​​en el control postranscripcional en S. cerevisiae con el fin de construir una plataforma de evolución enzimática de alto rendimiento [31].

Es bien sabido que la eliminación permanente de genes no deseados tiene un efecto positivo en la mejora del título y el rendimiento del producto objetivo. Sin embargo, la eliminación de genes relacionados con el crecimiento celular podría afectar la tasa de crecimiento, y quizás resulte en la muerte celular. Un enfoque alternativo es desactivar estos genes después de que el crecimiento de las células alcanza ciertos niveles y luego inhibir la expresión génica [32]. Como precursor del isopropanol, la acetil-CoA se puede convertir en ácido cítrico catalizado por la citrato sintasa codificada por gltA gene. Sin embargo, si la eliminación de gltA gen ocurrió en E. coli, el crecimiento bacteriano se detendrá. Por lo tanto, Soma et al. Desarrollaron un interruptor de palanca metabólico (MTS). con el propósito de inhibir gltA expresión junto con el mantenimiento de un buen crecimiento de las cepas. Después de la introducción del gltA Interruptor de apagado, la expresión de gltA se apagó y el flujo de carbono se redirigió a la síntesis de isopropanol, lo que resultó en una mejora de más del triple [33]. Varios años después, Soma et al. optimizó el enfoque MTS y sobreexpresó piruvato oxidasa codificada por poxB y acetil-CoA sintasa codificada por acs, que son responsables de la síntesis de acetil-COA. Promotor PLLACO1 controla la expresión de poxB y acs genes, mientras que el promotor PLtetO1 controla la represión de TetR. Entonces, el influjo metabólico en el ciclo de TCA podría interrumpirse. Al mismo tiempo, se mejoró la síntesis de isopropanol [34]. Estos desarrollos ilustran que los circuitos genéticos tienen un enorme potencial para construir varios sistemas biológicos con una amplia gama de aplicaciones prácticas.

Los riboswitches se consideran herramientas útiles para monitorear varios metabolitos debido a la capacidad de detectar metabolitos de moléculas específicas y unirse a ellos. Como sensor de metabolitos in vivo, el riboswitch se denomina biosensor de ARN, que puede regular la expresión génica cambiando su conformación al unirse a moléculas específicas. Para mejorar la productividad y el rendimiento de naringenina, se aplicó un riboswitch para detectar y controlar la naringenina intracelular o extracelular. Jang y col. construyó una biblioteca de plásmidos riboswitch y luego introdujo dos rutas de selección in vivo, que fueron capaces de ajustar los rangos operativos del riboswitch. Finalmente, el riboswitch de naringenina seleccionado puede responder a sus ligandos más rápidamente y eliminar los efectos fuera del objetivo [35]. Además, se utilizó un riboswitch de l-triptófano artificial para activar la expresión génica. Cuando se agrega 1 g / L de l-triptófano, el gen se regula al alza en 1,58 veces en comparación con no se agrega L-triptófano [36].

La otra aplicación de los circuitos genéticos es la biorremediación. El medio ambiente y el ecosistema actual están sufriendo mucho por la modernización y la industrialización. Para abordar este problema de manera adecuada, deben desarrollarse con urgencia los sistemas de control ambiental y rehabilitación [37]. Basado en tecnologías de biología sintética, se espera que algunos biosensores avanzados descompongan las moléculas objetivo [38,39,40]. Los interruptores genéticos pueden ayudar a las células de programación a detectar las numerosas señales y presentar algunas respuestas ventajosas durante el entorno complejo e incierto [41]. En particular, los biosensores fusionados con tecnologías de biología sintética muestran un desempeño sobresaliente entre los enfoques en curso desarrollados para la biorremediación que poseen el complemento de métodos analíticos de laboratorio y de campo para el monitoreo ambiental. Por ejemplo, el mercurio se distribuye ampliamente en los procesos industriales, incluido el procesamiento de materiales, la minería y la combustión del carbón, que dañan gravemente la fuente de agua y la cadena alimentaria [42, 43]. Dado este problema, se construyó una cepa diseñada para detectar y secuestrar iones Hg 2+ mediante la integración de un regulador transcripcional sensible al mercurio (regulador MerR). Además, este circuito sensor de mercurio contiene metalotioneínas que se unen a metales pesados ​​en la superficie de la celda y un sistema de transporte de Hg 2+ con el objetivo de remediar el agua contaminada. Al percibir la presencia de mercurio, el represor MerR cambiará la conformación y se unirá al Hg 2+, seguido por el secuestro de mercurio [44]. Junto con el progreso técnico, los biosensores diseñados más avanzados pueden permitir que los sensores del monitor actúen como biorreactores para descomponer las moléculas objetivo [38]. En general, los circuitos genéticos podrían diseñarse para permitir que los organismos hospedadores actúen como biosensores y biorreactores, para así detectar y descomponer los contaminantes ambientales. Sin lugar a dudas, la biología sintética será una herramienta poderosa para reducir drásticamente la contaminación ambiental en el futuro.


Contenido

Actualmente, la biología sintética no tiene una definición generalmente aceptada. Aquí están algunos ejemplos:

  • "el uso de una mezcla de ingeniería física e ingeniería genética para crear formas de vida nuevas (y, por lo tanto, sintéticas)" [2]
  • "un campo de investigación emergente que tiene como objetivo combinar el conocimiento y los métodos de la biología, la ingeniería y disciplinas relacionadas en el diseño de ADN sintetizado químicamente para crear organismos con características y rasgos nuevos o mejorados" [3]
  • "diseñar y construir módulos biológicos, sistemas biológicos y máquinas biológicas o rediseñar sistemas biológicos existentes para fines útiles" [4]
  • “Aplicar el paradigma de ingeniería del diseño de sistemas a sistemas biológicos para producir sistemas predecibles y robustos con funcionalidades novedosas que no existen en la naturaleza” (La Comisión Europea, 2005) Esto puede incluir la posibilidad de un ensamblador molecular, basado en sistemas biomoleculares como el ribosoma [5]

La biología sintética se ha dividido tradicionalmente en dos enfoques diferentes: de arriba hacia abajo y de abajo hacia arriba.

  1. los De arriba hacia abajo El enfoque implica el uso de técnicas de ingeniería genética y metabólica para impartir nuevas funciones a las células vivas.
  2. los de abajo hacia arriba El enfoque implica la creación de nuevos sistemas biológicos. in vitro reuniendo componentes biomoleculares "no vivos", [6] a menudo con el objetivo de construir una célula artificial.

Por tanto, los sistemas biológicos se ensamblan módulo por módulo. Los sistemas de expresión de proteínas libres de células se emplean a menudo, [7] [8] [9] al igual que la maquinaria molecular basada en membranas. Hay cada vez más esfuerzos para cerrar la brecha entre estos enfoques mediante la formación de células vivas / sintéticas híbridas, [10] y la comunicación de ingeniería entre las poblaciones de células vivas y sintéticas. [11]

1910: Primer uso identificable del término "biología sintética" en la publicación de Stéphane Leduc Théorie physico-chimique de la vie et générations spontanées. [12] También señaló este término en otra publicación, La Biologie Synthétique en 1912. [13]

1961: Jacob y Monod postulan la regulación celular por redes moleculares a partir de su estudio de la laca operón en E. coli y previó la capacidad de ensamblar nuevos sistemas a partir de componentes moleculares. [14]

1973: Se publica la primera clonación molecular y amplificación de ADN en un plásmido en P.N.A.S. por Cohen, Boyer et al. constituyendo el amanecer de la biología sintética. [15]

1978: Arber, Nathans y Smith ganan el Premio Nobel de Fisiología o Medicina por el descubrimiento de enzimas de restricción, lo que llevó a Szybalski a ofrecer un comentario editorial en la revista. Gene:

El trabajo sobre las nucleasas de restricción no solo nos permite construir fácilmente moléculas de ADN recombinante y analizar genes individuales, sino que también nos ha llevado a la nueva era de la biología sintética donde no solo se describen y analizan genes existentes, sino que también se pueden construir nuevos arreglos de genes. y evaluado. [dieciséis]

1988: La primera amplificación de ADN mediante la reacción en cadena de la polimerasa (PCR) utilizando una ADN polimerasa termoestable se publica en Ciencias por Mullis et al. [17] Esto evitó la adición de nueva ADN polimerasa después de cada ciclo de PCR, lo que simplificó enormemente la mutagénesis y el ensamblaje del ADN.

2000: Dos artículos en Nature informan sobre circuitos biológicos sintéticos, un interruptor de palanca genético y un reloj biológico, mediante la combinación de genes dentro de E. coli células. [18] [19]

2003: Las partes de ADN estandarizadas más utilizadas, los plásmidos BioBrick, son inventados por Tom Knight. [20] Estas piezas se convertirán en el centro de la competencia internacional de máquinas de ingeniería genética (iGEM) fundada en el MIT el año siguiente.

2003: Los investigadores diseñan una vía de precursores de la artemisinina en E. coli. [21]

2004: La primera conferencia internacional de biología sintética, Synthetic Biology 1.0 (SB1.0) se lleva a cabo en el Instituto de Tecnología de Massachusetts, EE. UU.

2005: Los investigadores desarrollan un circuito sensor de luz en E. coli. [22] Otro grupo diseña circuitos capaces de formar patrones multicelulares. [23]

2006: Los investigadores diseñan un circuito sintético que promueve la invasión bacteriana de las células tumorales. [24]

2010: Los investigadores publican en Ciencias el primer genoma bacteriano sintético, llamado M. mycoides JCVI-syn1.0. [25] [26] El genoma está hecho de ADN sintetizado químicamente mediante recombinación de levadura.

2011: Los brazos de cromosomas sintéticos funcionales están diseñados en levadura. [27]

2012: Los laboratorios Charpentier y Doudna publican en Ciencias la programación de la inmunidad bacteriana CRISPR-Cas9 para dirigirse a la escisión del ADN. [28] Esta tecnología simplificó y amplió enormemente la edición de genes eucariotas.

2019: Los científicos de ETH Zurich informan sobre la creación del primer genoma bacteriano, llamado Caulobacter ethensis-2.0, hecho completamente por una computadora, aunque una forma viable relacionada de C. ethensis-2.0 aún no existe. [29] [30]

2019: Los investigadores informan de la producción de una nueva forma sintética (posiblemente artificial) de vida viable, una variante de la bacteria. Escherichia coli, reduciendo el número natural de 64 codones en el genoma bacteriano a 59 codones, para codificar 20 aminoácidos. [31] [32]

Los ingenieros ven la biología como un tecnología (en otras palabras, un sistema dado incluye biotecnología o su Ingeniería biológica) [33] La biología sintética incluye la amplia redefinición y expansión de la biotecnología, con el objetivo final de poder diseñar y construir sistemas biológicos vivos diseñados que procesen información, manipulen productos químicos, fabriquen materiales y estructuras, produzcan energía, proporcionen alimentos y mantengan y mejorar la salud humana, así como avanzar en el conocimiento fundamental de los sistemas biológicos (ver Ingeniería Biomédica) y nuestro medio ambiente. [34]

Los estudios en biología sintética se pueden subdividir en amplias clasificaciones según el enfoque que adopten para el problema en cuestión: estandarización de partes biológicas, ingeniería biomolecular, ingeniería del genoma, ingeniería metabólica. [ cita necesaria ]

La ingeniería biomolecular incluye enfoques que tienen como objetivo crear un conjunto de herramientas de unidades funcionales que se pueden introducir para presentar nuevas funciones tecnológicas en células vivas. La ingeniería genética incluye enfoques para construir cromosomas sintéticos u organismos mínimos como Mycoplasma laboratorium.

El diseño biomolecular se refiere a la idea general del diseño de novo y la combinación aditiva de componentes biomoleculares. Cada uno de estos enfoques comparte una tarea similar: desarrollar una entidad más sintética en un nivel más alto de complejidad manipulando inventivamente una parte más simple en el nivel anterior. [35] [36]

Por otro lado, los "reescritores" son biólogos sintéticos interesados ​​en probar la irreductibilidad de los sistemas biológicos. Debido a la complejidad de los sistemas biológicos naturales, sería más sencillo reconstruir los sistemas naturales de interés desde cero para proporcionar sustitutos diseñados que sean más fáciles de comprender, controlar y manipular. [37] Los reescritores se inspiran en la refactorización, un proceso que a veces se utiliza para mejorar el software informático.

Varias tecnologías habilitadoras novedosas fueron fundamentales para el éxito de la biología sintética. Los conceptos incluyen la estandarización de partes biológicas y la abstracción jerárquica para permitir el uso de esas partes en sistemas sintéticos. [38] Las tecnologías básicas incluyen la lectura y escritura de ADN (secuenciación y fabricación). Se necesitan mediciones en múltiples condiciones para un modelado preciso y un diseño asistido por computadora (CAD).

Síntesis de ADN y genes Editar

Impulsado por una disminución drástica en los costos de la síntesis de oligonucleótidos ("oligos") y el advenimiento de la PCR, los tamaños de las construcciones de ADN de los oligos se han incrementado hasta el nivel genómico. [39] En 2000, los investigadores informaron sobre la síntesis del genoma del virus de la hepatitis C de 9,6 kpb (kilo pb) a partir de 60 a 80 mers sintetizados químicamente. [40] En 2002, investigadores de la Universidad de Stony Brook lograron sintetizar el genoma del poliovirus de 7741 pb a partir de su secuencia publicada, produciendo el segundo genoma sintético, que se extendió por dos años. [41] En 2003, el genoma de 5386 pb del bacteriófago Phi X 174 se ensambló en aproximadamente dos semanas. [42] En 2006, el mismo equipo, en el Instituto J. Craig Venter, construyó y patentó un genoma sintético de una nueva bacteria mínima, Laboratorio de Mycoplasma y estábamos trabajando para que funcionara en una célula viva. [43] [44] [45]

En 2007 se informó que varias empresas estaban ofreciendo síntesis de secuencias genéticas de hasta 2000 pares de bases (pb) de largo, por un precio de alrededor de $ 1 por pb y un tiempo de respuesta de menos de dos semanas. [46] Los oligonucleótidos recolectados de un chip de ADN fabricado por inyección de tinta o fotolitográfico combinado con PCR y corrección de errores de desajuste de ADN permiten cambios económicos a gran escala de codones en sistemas genéticos para mejorar la expresión génica o incorporar nuevos aminoácidos (ver George M. Proyectos de células sintéticas de Church y Anthony Forster. [47] [48]) Esto favorece un enfoque de síntesis desde cero.

Además, el sistema CRISPR / Cas se ha convertido en una técnica prometedora para la edición de genes. Se describió como "la innovación más importante en el espacio de la biología sintética en casi 30 años". [49] Mientras que otros métodos tardan meses o años en editar secuencias de genes, CRISPR acelera ese tiempo hasta semanas. [49] Sin embargo, debido a su facilidad de uso y accesibilidad, ha planteado preocupaciones éticas, especialmente en torno a su uso en biohacking. [50] [51] [52]

Secuenciar editar

La secuenciación del ADN determina el orden de las bases de nucleótidos en una molécula de ADN. Los biólogos sintéticos utilizan la secuenciación del ADN en su trabajo de varias formas. Primero, los esfuerzos de secuenciación del genoma a gran escala continúan proporcionando información sobre organismos naturales. Esta información proporciona un rico sustrato a partir del cual los biólogos sintéticos pueden construir piezas y dispositivos. En segundo lugar, la secuenciación puede verificar que el sistema fabricado sea el previsto. En tercer lugar, la secuenciación rápida, barata y confiable puede facilitar la detección e identificación rápidas de sistemas y organismos sintéticos. [53]

Microfluídica Editar

La microfluídica, en particular la microfluídica de gotas, es una herramienta emergente que se utiliza para construir nuevos componentes, analizarlos y caracterizarlos. [54] [55] Se emplea ampliamente en ensayos de detección. [56]

Modularidad Editar

Los más utilizados [57]: 22–23 partes de ADN estandarizadas son los plásmidos BioBrick, inventados por Tom Knight en 2003. [58] Los bioladrillos se almacenan en el Registro de Partes Biológicas Estándar en Cambridge, Massachusetts. El estándar BioBrick ha sido utilizado por miles de estudiantes en todo el mundo en la competencia internacional de máquinas de ingeniería genética (iGEM). [57]: 22–23

Si bien el ADN es más importante para el almacenamiento de información, las proteínas llevan a cabo una gran fracción de las actividades de la célula. Las herramientas pueden enviar proteínas a regiones específicas de la célula y unir diferentes proteínas. La fuerza de interacción entre las proteínas asociadas debe poder ajustarse entre una vida útil de segundos (deseable para eventos de señalización dinámica) hasta una interacción irreversible (deseable para la estabilidad del dispositivo o resistente a condiciones adversas). Interacciones tales como espirales enrolladas, [59] unión péptido-dominio SH3 [60] o SpyTag / SpyCatcher [61] ofrecen tal control. Además, es necesario regular las interacciones proteína-proteína en las células, como con la luz (utilizando dominios sensibles al voltaje de oxígeno a la luz) o moléculas pequeñas permeables a las células mediante dimerización inducida químicamente. [62]

En una célula viva, los motivos moleculares están integrados en una red más grande con componentes ascendentes y descendentes. Estos componentes pueden alterar la capacidad de señalización del módulo de modelado.En el caso de módulos ultrasensibles, la contribución de sensibilidad de un módulo puede diferir de la sensibilidad que el módulo sostiene de forma aislada. [63] [64]

Modelado Editar

Los modelos informan el diseño de sistemas biológicos diseñados al predecir mejor el comportamiento del sistema antes de la fabricación. La biología sintética se beneficia de mejores modelos de cómo las moléculas biológicas unen sustratos y catalizan reacciones, cómo el ADN codifica la información necesaria para especificar la célula y cómo se comportan los sistemas integrados de múltiples componentes. Los modelos multiescala de redes reguladoras de genes se centran en aplicaciones de biología sintética. Las simulaciones pueden modelar todas las interacciones biomoleculares en la transcripción, traducción, regulación e inducción de redes reguladoras de genes. [65] [66] [67]

Factores de transcripción sintéticos Editar

Los estudios han considerado los componentes del mecanismo de transcripción del ADN. Un deseo de los científicos que crean circuitos biológicos sintéticos es poder controlar la transcripción de ADN sintético en organismos unicelulares (procariotas) y en organismos multicelulares (eucariotas). Un estudio probó la capacidad de ajuste de los factores de transcripción sintéticos (sTF) en áreas de salida de transcripción y capacidad cooperativa entre múltiples complejos de factores de transcripción. [68] Los investigadores pudieron mutar regiones funcionales llamadas dedos de zinc, el componente específico del ADN de los sTF, para disminuir su afinidad por los sitios de secuencia de ADN del operador específico y, por lo tanto, disminuir la actividad específica del sitio asociada del sTF (generalmente regulación transcripcional). Además, utilizaron los dedos de zinc como componentes de los sTF formadores de complejos, que son los mecanismos de traducción eucariotas. [68]

Computadoras biológicas Editar

Una computadora biológica se refiere a un sistema biológico diseñado que puede realizar operaciones similares a las de una computadora, que es un paradigma dominante en biología sintética. Los investigadores construyeron y caracterizaron una variedad de puertas lógicas en varios organismos, [69] y demostraron computación tanto analógica como digital en células vivas. Demostraron que las bacterias pueden diseñarse para realizar cálculos tanto analógicos como digitales. [70] [71] En células humanas, la investigación demostró un evaluador lógico universal que opera en células de mamíferos en 2007. [72] Posteriormente, los investigadores utilizaron este paradigma para demostrar una terapia de prueba de concepto que utiliza computación digital biológica para detectar y matar células cancerosas humanas en 2011. [73] Otro grupo de investigadores demostró en 2016 que los principios de la ingeniería informática pueden utilizarse para automatizar el diseño de circuitos digitales en células bacterianas. [74] En 2017, los investigadores demostraron el sistema de 'lógica y aritmética booleana a través de la escisión de ADN' (BLADE) para diseñar computación digital en células humanas. [75]

Biosensores Editar

Un biosensor se refiere a un organismo diseñado, generalmente una bacteria, que es capaz de informar sobre algún fenómeno ambiental, como la presencia de metales pesados ​​o toxinas. Uno de estos sistemas es el operón Lux de Aliivibrio fischeri, [76] que codifica la enzima que es la fuente de bioluminiscencia bacteriana, y puede colocarse después de un promotor respondedor para expresar los genes de luminiscencia en respuesta a un estímulo ambiental específico. [77] Uno de esos sensores creado, consistía en una capa bacteriana bioluminiscente en un chip de computadora fotosensible para detectar ciertos contaminantes del petróleo. Cuando las bacterias detectan el contaminante, emiten luminiscencia. [78] Otro ejemplo de un mecanismo similar es la detección de minas terrestres por un ingeniero E. coli cepa informadora capaz de detectar TNT y su principal producto de degradación DNT y, en consecuencia, producir una proteína verde fluorescente (GFP). [79]

Los organismos modificados pueden detectar señales ambientales y enviar señales de salida que pueden detectarse y servir para fines de diagnóstico. Se han utilizado cohortes de microbios. [80]

Transformación celular Editar

Las células utilizan genes y proteínas que interactúan, que se denominan circuitos de genes, para implementar diversas funciones, como responder a señales ambientales, tomar decisiones y comunicarse. Están involucrados tres componentes clave: ADN, ARN y circuitos genéticos diseñados por biólogos sintéticos que pueden controlar la expresión génica desde varios niveles, incluidos los niveles transcripcional, postranscripcional y traduccional.

La ingeniería metabólica tradicional se ha visto reforzada por la introducción de combinaciones de genes extraños y la optimización por evolución dirigida. Esto incluye ingeniería E. coli y levadura para la producción comercial de un precursor del fármaco antipalúdico Artemisinina. [81]

Aún no se han creado organismos completos desde cero, aunque las células vivas pueden transformarse con nuevo ADN. Varias formas permiten construir componentes de ADN sintético e incluso genomas sintéticos completos, pero una vez que se obtiene el código genético deseado, se integra en una célula viva que se espera que manifieste las nuevas capacidades o fenotipos deseados mientras crece y prospera. [82] La transformación celular se utiliza para crear circuitos biológicos, que pueden manipularse para producir los resultados deseados. [18] [19]

Al integrar la biología sintética con la ciencia de los materiales, sería posible utilizar células como fundiciones moleculares microscópicas para producir materiales con propiedades cuyas propiedades estuvieran codificadas genéticamente. La reingeniería ha producido fibras Curli, el componente amiloide del material extracelular de biopelículas, como plataforma para nanomateriales programables. Estas nanofibras se construyeron genéticamente para funciones específicas, incluida la adhesión a sustratos, la creación de plantillas de nanopartículas y la inmovilización de proteínas. [83]

Proteínas diseñadas Editar

Las proteínas naturales se pueden diseñar, por ejemplo, mediante evolución dirigida, se pueden producir nuevas estructuras de proteínas que coincidan o mejoren la funcionalidad de las proteínas existentes. Un grupo generó un haz de hélice que era capaz de unir oxígeno con propiedades similares a la hemoglobina, pero que no se unía al monóxido de carbono. [85] Se generó una estructura de proteína similar para soportar una variedad de actividades oxidorreductasa [86] mientras que otra formaba una ATPasa estructural y secuencialmente nueva. [87] Otro grupo generó una familia de receptores acoplados a proteína G que podrían ser activados por la molécula pequeña inerte de N-óxido de clozapina pero insensibles al ligando nativo, acetilcolina, estos receptores se conocen como DREADD. [88] Las nuevas funcionalidades o la especificidad de las proteínas también se pueden diseñar utilizando enfoques computacionales. Un estudio pudo utilizar dos métodos computacionales diferentes: un método de modelado molecular y bioinformático para extraer bases de datos de secuencias, y un método de diseño de enzimas computacionales para reprogramar la especificidad de las enzimas. Ambos métodos dieron como resultado enzimas diseñadas con una especificidad superior a 100 veces para la producción de alcoholes de cadena más larga a partir del azúcar. [89]

Otra investigación común es la expansión del conjunto natural de 20 aminoácidos. Excluyendo los codones de terminación, se han identificado 61 codones, pero generalmente solo se codifican 20 aminoácidos en todos los organismos. Ciertos codones están diseñados para codificar aminoácidos alternativos que incluyen: aminoácidos no estándar como O-metil tirosina o aminoácidos exógenos como 4-fluorofenilalanina. Por lo general, estos proyectos utilizan pares de ARNt supresor sin sentido recodificados de ARNt-Aminoacil ARNt sintetasa de otros organismos, aunque en la mayoría de los casos se requiere ingeniería sustancial. [90]

Otros investigadores investigaron la estructura y función de las proteínas reduciendo el conjunto normal de 20 aminoácidos. Se preparan bibliotecas de secuencias de proteínas limitadas mediante la generación de proteínas en las que los grupos de aminoácidos pueden ser reemplazados por un solo aminoácido. [91] Por ejemplo, varios aminoácidos no polares dentro de una proteína pueden reemplazarse con un solo aminoácido no polar. [92] Un proyecto demostró que una versión diseñada de Chorismate mutasa todavía tenía actividad catalítica cuando solo se usaban 9 aminoácidos. [93]

Investigadores y empresas practican la biología sintética para sintetizar enzimas industriales con alta actividad, rendimientos óptimos y efectividad. Estas enzimas sintetizadas tienen como objetivo mejorar productos como detergentes y productos lácteos sin lactosa, además de hacerlos más rentables. [94] Las mejoras de la ingeniería metabólica mediante la biología sintética es un ejemplo de una técnica biotecnológica utilizada en la industria para descubrir productos farmacéuticos y productos químicos fermentativos. La biología sintética puede investigar los sistemas de vías modulares en la producción bioquímica y aumentar los rendimientos de la producción metabólica. La actividad enzimática artificial y los efectos subsiguientes sobre las tasas de reacción metabólica y los rendimientos pueden desarrollar "nuevas estrategias eficientes para mejorar las propiedades celulares. Para la producción bioquímica de importancia industrial". [95]

Sistemas de ácido nucleico diseñados Editar

Los científicos pueden codificar información digital en una sola hebra de ADN sintético. En 2012, George M. Church codificó uno de sus libros sobre biología sintética en el ADN. Los 5,3 Mb de datos fueron más de 1000 veces mayores que la mayor cantidad anterior de información almacenada en el ADN sintetizado. [96] Un proyecto similar codificó los sonetos completos de William Shakespeare en ADN. [97] De manera más general, algoritmos como NUPACK, [98] ViennaRNA, [99] Ribosome Binding Site Calculator, [100] Cello, [101] y Non-Repetitive Parts Calculator [102] permiten el diseño de nuevos sistemas genéticos.

Se han desarrollado muchas tecnologías para incorporar nucleótidos y aminoácidos no naturales en ácidos nucleicos y proteínas, tanto in vitro y en vivo. Por ejemplo, en mayo de 2014, los investigadores anunciaron que habían introducido con éxito dos nuevos nucleótidos artificiales en el ADN bacteriano. Al incluir nucleótidos artificiales individuales en los medios de cultivo, pudieron intercambiar las bacterias 24 veces en las que no generaron ARNm o proteínas capaces de usar los nucleótidos artificiales. [103] [104] [105]

Exploración espacial Editar

La biología sintética despertó el interés de la NASA, ya que podría ayudar a producir recursos para los astronautas a partir de una cartera restringida de compuestos enviados desde la Tierra. [106] [107] [108] En Marte, en particular, la biología sintética podría conducir a procesos de producción basados ​​en recursos locales, convirtiéndola en una poderosa herramienta en el desarrollo de puestos de avanzada tripulados con menos dependencia de la Tierra. [106] Se ha trabajado en el desarrollo de variedades de plantas que sean capaces de hacer frente al duro entorno marciano, utilizando técnicas similares a las empleadas para aumentar la resistencia a ciertos factores ambientales en los cultivos agrícolas. [109]

Vida sintética Editar

Un tema importante en biología sintética es vida sintética, que se ocupa de organismos hipotéticos creados in vitro a partir de biomoléculas y / o análogos químicos de las mismas. Los experimentos de vida sintética intentan sondear los orígenes de la vida, estudiar algunas de las propiedades de la vida o, de manera más ambiciosa, recrear la vida a partir de componentes no vivos (abióticos). La biología de la vida sintética intenta crear organismos vivos capaces de llevar a cabo funciones importantes, desde la fabricación de productos farmacéuticos hasta la desintoxicación de la tierra y el agua contaminadas. [111] En medicina, ofrece posibilidades de utilizar partes biológicas de diseño como punto de partida para nuevas clases de terapias y herramientas de diagnóstico. [111]

Una "célula artificial" viva se ha definido como una célula completamente sintética que puede capturar energía, mantener gradientes iónicos, contener macromoléculas, así como almacenar información y tener la capacidad de mutar. [112] Nadie ha podido crear una célula de este tipo. [112]

Craig Venter produjo un cromosoma bacteriano completamente sintético en 2010, y su equipo lo introdujo en células huésped bacterianas vaciadas genómicamente. [25] Las células huésped pudieron crecer y replicarse. [113] [114] El Mycoplasma laboratorium es el único organismo vivo con genoma completamente diseñado.

El primer organismo vivo con código de ADN expandido 'artificial' se presentó en 2014, el equipo utilizó E. coli que tenía su genoma extraído y reemplazado por un cromosoma con un código genético expandido. Los nucleósidos añadidos son d5SICS y dNaM. [105]

En mayo de 2019, los investigadores, en un esfuerzo histórico, informaron sobre la creación de una nueva forma sintética (posiblemente artificial) de vida viable, una variante de la bacteria. Escherichia coli, reduciendo el número natural de 64 codones en el genoma bacteriano a 59 codones, para codificar 20 aminoácidos. [31] [32]

En 2017 se inició la colaboración internacional de investigación Build-a-Cell a gran escala para la construcción de células vivas sintéticas, [115] seguida de organizaciones nacionales de células sintéticas en varios países, incluidos FabriCell, [116] MaxSynBio [117] y BaSyC. [118] Los esfuerzos europeos de células sintéticas se unificaron en 2019 como iniciativa SynCellEU. [119]

Plataformas de administración de fármacos Editar

Plataforma diseñada basada en bacterias Editar

Las bacterias se han utilizado durante mucho tiempo en el tratamiento del cáncer. Bifidobacteria y Clostridium colonizar selectivamente los tumores y reducir su tamaño. [120] Recientemente, los biólogos sintéticos reprogramaron bacterias para detectar y responder a un estado de cáncer en particular. La mayoría de las veces, se utilizan bacterias para administrar una molécula terapéutica directamente al tumor para minimizar los efectos fuera del objetivo. Para apuntar a las células tumorales, se expresaron péptidos que pueden reconocer específicamente un tumor en las superficies de las bacterias. Los péptidos utilizados incluyen una molécula affibody que se dirige específicamente al receptor 2 del factor de crecimiento epidérmico humano [121] y una adhesina sintética. [122] La otra forma es permitir que las bacterias detecten el microambiente del tumor, por ejemplo, la hipoxia, mediante la construcción de una puerta lógica AND en las bacterias. [123] Las bacterias solo liberan moléculas terapéuticas diana en el tumor a través de la lisis [124] o del sistema de secreción bacteriana. [125] La lisis tiene la ventaja de que puede estimular el sistema inmunológico y controlar el crecimiento. Se pueden utilizar múltiples tipos de sistemas de secreción y también otras estrategias. El sistema es inducible por señales externas. Los inductores incluyen químicos, ondas electromagnéticas o de luz.

En estas terapias se aplican múltiples especies y cepas. Las bacterias más utilizadas son Salmonella typhimurium, Escherichia coli, Bifidobacterias, Estreptococo, Lactobacillus, Listeria y Bacillus subtilis. Cada una de estas especies tiene sus propias propiedades y son exclusivas de la terapia del cáncer en términos de colonización de tejidos, interacción con el sistema inmunológico y facilidad de aplicación.

Plataforma basada en células Editar

El sistema inmunológico juega un papel importante en el cáncer y se puede aprovechar para atacar las células cancerosas. Las terapias basadas en células se centran en inmunoterapias, principalmente mediante la ingeniería de células T.

Los receptores de células T fueron diseñados y "entrenados" para detectar epítopos de cáncer. Los receptores de antígenos quiméricos (CAR) están compuestos por un fragmento de un anticuerpo fusionado con dominios de señalización de células T intracelulares que pueden activar y desencadenar la proliferación de la célula. La FDA aprobó una terapia basada en CAR de segunda generación. [ cita necesaria ]

Los interruptores genéticos se diseñaron para mejorar la seguridad del tratamiento. Los interruptores de interrupción se desarrollaron para terminar la terapia en caso de que el paciente presentara efectos secundarios graves. [126] Los mecanismos pueden controlar con mayor precisión el sistema y detenerlo y reactivarlo. [127] [128] Dado que el número de células T es importante para la persistencia y la gravedad de la terapia, el crecimiento de las células T también se controla para marcar la eficacia y seguridad de la terapéutica. [129]

Aunque varios mecanismos pueden mejorar la seguridad y el control, las limitaciones incluyen la dificultad de inducir grandes circuitos de ADN en las células y los riesgos asociados con la introducción de componentes extraños, especialmente proteínas, en las células.

La creación de nueva vida y la manipulación de la vida existente ha suscitado preocupaciones éticas en el campo de la biología sintética y se están debatiendo activamente. [130] [131]

Las preguntas éticas comunes incluyen:

  • ¿Es moralmente correcto alterar la naturaleza?
  • ¿Está uno jugando a ser Dios al crear una nueva vida?
  • ¿Qué sucede si un organismo sintético se escapa accidentalmente?
  • ¿Qué pasa si un individuo hace un mal uso de la biología sintética y crea una entidad dañina (por ejemplo, un arma biológica)?
  • ¿Quién tendrá control y acceso a los productos de la biología sintética?
  • ¿Quién se beneficiará de estas innovaciones? Inversores? Pacientes médicos? Granjeros industriales?
  • ¿El sistema de patentes permite patentes sobre organismos vivos? ¿Qué pasa con las partes de los organismos, como los genes de resistencia al VIH en los seres humanos? [132]
  • ¿Qué pasa si una nueva creación merece un estatus moral o legal?

Los aspectos éticos de la biología sintética tienen 3 características principales: bioseguridad, bioseguridad y creación de nuevas formas de vida. [133] Otras cuestiones éticas mencionadas incluyen la regulación de nuevas creaciones, la gestión de patentes de nuevas creaciones, la distribución de beneficios y la integridad de la investigación. [134] [130]

Han surgido problemas éticos para las tecnologías de ADN recombinante y de organismos genéticamente modificados (OGM), y en muchas jurisdicciones se establecieron extensas regulaciones de ingeniería genética e investigación de patógenos. Amy Gutmann, ex directora de la Comisión Presidencial de Bioética, argumentó que deberíamos evitar la tentación de sobrerregular la biología sintética en general y la ingeniería genética en particular. Según Gutmann, "la parsimonia regulatoria es especialmente importante en las tecnologías emergentes. Donde la tentación de sofocar la innovación sobre la base de la incertidumbre y el miedo a lo desconocido es particularmente grande. Los instrumentos contundentes de restricción legal y reglamentaria pueden no solo inhibir la distribución de nuevos beneficiosos, pero puede ser contraproducente para la seguridad y la protección al impedir que los investigadores desarrollen salvaguardias efectivas ". [135]

La "creación" de la vida Editar

Una cuestión ética es si es aceptable o no crear nuevas formas de vida, lo que a veces se conoce como "jugar a ser Dios". Actualmente, la creación de nuevas formas de vida que no están presentes en la naturaleza se realiza a pequeña escala, los beneficios y peligros potenciales siguen siendo desconocidos, y la mayoría de los estudios garantizan una cuidadosa consideración y supervisión. [130] Muchos defensores expresan el gran valor potencial —para la agricultura, la medicina y el conocimiento académico, entre otros campos— de crear formas de vida artificiales. La creación de nuevas entidades podría ampliar el conocimiento científico mucho más allá de lo que se conoce actualmente del estudio de los fenómenos naturales. Sin embargo, existe la preocupación de que las formas de vida artificiales puedan reducir la "pureza" de la naturaleza (es decir, la naturaleza podría ser corrompida de alguna manera por la intervención y manipulación humanas) y potencialmente influir en la adopción de principios más similares a la ingeniería en lugar de ideales centrados en la biodiversidad y la naturaleza. A algunos también les preocupa que si una forma de vida artificial se liberara en la naturaleza, podría obstaculizar la biodiversidad al vencer a las especies naturales por recursos (similar a cómo las floraciones de algas matan a las especies marinas). Otra preocupación tiene que ver con el tratamiento ético de las entidades recién creadas si sienten dolor, sensibilidad y autopercepción. ¿Deberían otorgarse derechos morales o legales a esa vida? ¿Si es así, cómo?

Bioseguridad y biocontención Editar

¿Qué es lo más éticamente apropiado al considerar las medidas de bioseguridad? ¿Cómo se puede evitar la introducción accidental de vida sintética en el medio natural? Se ha dado mucha consideración ética y pensamiento crítico a estas cuestiones. La bioseguridad no solo se refiere a la contención biológica, sino que también se refiere a los pasos dados para proteger al público de agentes biológicos potencialmente peligrosos. Aunque tales preocupaciones son importantes y siguen sin respuesta, no todos los productos de la biología sintética presentan preocupación por la seguridad biológica o consecuencias negativas para el medio ambiente. Se argumenta que la mayoría de las tecnologías sintéticas son benignas y son incapaces de prosperar en el mundo exterior debido a sus características "antinaturales", ya que todavía no hay un ejemplo de un microbio transgénico con una ventaja de aptitud en la naturaleza.

En general, los controles de peligros existentes, las metodologías de evaluación de riesgos y las reglamentaciones desarrolladas para los organismos modificados genéticamente (OGM) tradicionales se consideran suficientes para los organismos sintéticos. Los métodos de biocontención "extrínsecos" en un contexto de laboratorio incluyen la contención física a través de gabinetes de bioseguridad y cajas de guantes, así como equipo de protección personal. En un contexto agrícola, incluyen distancias de aislamiento y barreras de polen, similares a los métodos de biocontención de OMG. Los organismos sintéticos pueden ofrecer un mayor control de peligros porque pueden diseñarse con métodos de biocontención "intrínsecos" que limitan su crecimiento en un entorno no confinado o evitan la transferencia horizontal de genes a organismos naturales. Los ejemplos de biocontención intrínseca incluyen auxotrofia, interruptores de muerte biológicos, incapacidad del organismo para replicarse o pasar genes modificados o sintéticos a la descendencia, y el uso de organismos xenobiológicos usando bioquímica alternativa, por ejemplo, usando ácidos xenonucleicos artificiales (XNA) en lugar de ADN. . [136] [137] Con respecto a la auxotrofia, las bacterias y las levaduras pueden modificarse para que no puedan producir histidina, un aminoácido importante para toda la vida. Por lo tanto, tales organismos solo pueden cultivarse en medios ricos en histidina en condiciones de laboratorio, anulando los temores de que puedan extenderse a áreas indeseables.

Bioseguridad Editar

Algunas cuestiones éticas se relacionan con la bioseguridad, donde las tecnologías biosintéticas podrían usarse deliberadamente para causar daño a la sociedad y / o al medio ambiente. Dado que la biología sintética plantea problemas éticos y problemas de bioseguridad, la humanidad debe considerar y planificar cómo lidiar con las creaciones potencialmente dañinas y qué tipo de medidas éticas podrían emplearse para disuadir las nefastas tecnologías biosintéticas. Sin embargo, con la excepción de la regulación de la biología sintética y las empresas de biotecnología, [138] [139] los problemas no se consideran nuevos porque se plantearon durante los debates anteriores sobre el ADN recombinante y los organismos genéticamente modificados (OGM) y las extensas regulaciones de la ingeniería genética y La investigación de patógenos ya está en marcha en muchas jurisdicciones. [140]

Unión Europea Editar

El proyecto SYNBIOSAFE [141], financiado por la Unión Europea, ha publicado informes sobre cómo gestionar la biología sintética. Un documento de 2007 identificó cuestiones clave en seguridad, protección, ética y la interfaz ciencia-sociedad, que el proyecto definió como educación pública y diálogo continuo entre científicos, empresas, gobierno y especialistas en ética. [142] [143] Los problemas de seguridad clave que SYNBIOSAFE identificó involucraron la participación de empresas que venden ADN sintético y la comunidad de biohacking de biólogos aficionados. Las cuestiones éticas clave se referían a la creación de nuevas formas de vida.

Un informe posterior se centró en la bioseguridad, especialmente el llamado desafío de doble uso. Por ejemplo, si bien la biología sintética puede conducir a una producción más eficiente de tratamientos médicos, también puede conducir a la síntesis o modificación de patógenos dañinos (por ejemplo, viruela). [144] La comunidad de biohacking sigue siendo una fuente de especial preocupación, ya que la naturaleza distribuida y difusa de la biotecnología de código abierto dificulta el seguimiento, la regulación o la mitigación de posibles preocupaciones sobre la bioseguridad y la bioseguridad. [145]

COSY, otra iniciativa europea, se centra en la percepción y la comunicación del público. [146] [147] [148] Para comunicar mejor la biología sintética y sus ramificaciones sociales a un público más amplio, COZY y SYNBIOSAFE publicaron SYNBIOSAFE, un documental de 38 minutos, en octubre de 2009. [149]

La Asociación Internacional de Biología Sintética ha propuesto la autorregulación. [150] Propone medidas específicas que la industria de la biología sintética, especialmente las empresas de síntesis de ADN, deberían implementar. En 2007, un grupo dirigido por científicos de empresas líderes en síntesis de ADN publicó un "plan práctico para desarrollar un marco de supervisión eficaz para la industria de síntesis de ADN". [138]

Estados Unidos Editar

En enero de 2009, la Fundación Alfred P. Sloan financió el Centro Woodrow Wilson, el Centro Hastings y el Instituto J. Craig Venter para examinar la percepción pública, la ética y las implicaciones políticas de la biología sintética. [151]

Del 9 al 10 de julio de 2009, el Comité de Ciencias, Tecnología y Derecho de las Academias Nacionales convocó un simposio sobre "Oportunidades y desafíos en el campo emergente de la biología sintética". [152]

Después de la publicación del primer genoma sintético y la cobertura mediática que lo acompañaba sobre la creación de la "vida", el presidente Barack Obama estableció la Comisión Presidencial para el Estudio de Temas Bioéticos para estudiar la biología sintética. [153] La comisión convocó una serie de reuniones y emitió un informe en diciembre de 2010 titulado "Nuevas direcciones: la ética de la biología sintética y las tecnologías emergentes". La comisión declaró que "si bien el logro de Venter marcó un avance técnico significativo en la demostración de que un genoma relativamente grande podía sintetizarse con precisión y sustituirse por otro, no equivalía a la" creación de vida ". [154] Señaló que la biología sintética es un campo emergente, que crea riesgos y recompensas potenciales. La comisión no recomendó cambios de política o supervisión y pidió que se continuara financiando la investigación y nuevos fondos para el monitoreo, el estudio de las cuestiones éticas emergentes y la educación pública. [140]

La biología sintética, como una herramienta importante para los avances biológicos, da como resultado el "potencial para el desarrollo de armas biológicas, posibles impactos negativos imprevistos en la salud humana y cualquier impacto ambiental potencial". [155] Estos problemas de seguridad pueden evitarse regulando los usos industriales de la biotecnología a través de legislación política. Las directrices federales sobre manipulación genética están siendo propuestas por "la Comisión de Bioética del Presidente. En respuesta a la creación anunciada de una célula autorreplicante a partir de un genoma sintetizado químicamente, presentó 18 recomendaciones no solo para regular la ciencia, para educar al público". [155]

Oposición Editar

El 13 de marzo de 2012, más de 100 grupos ambientales y de la sociedad civil, incluidos Amigos de la Tierra, el Centro Internacional de Evaluación Tecnológica y el Grupo ETC, emitieron el manifiesto Los principios para la supervisión de la biología sintética. Este manifiesto pide una moratoria mundial sobre la liberación y el uso comercial de organismos sintéticos hasta que se establezcan regulaciones más sólidas y medidas de bioseguridad rigurosas. Los grupos piden específicamente una prohibición absoluta del uso de biología sintética en el genoma o microbioma humano. [156] [157] Richard Lewontin escribió que algunos de los principios de seguridad para la supervisión discutidos en Los principios para la supervisión de la biología sintética son razonables, pero que el principal problema con las recomendaciones del manifiesto es que "el público en general carece de la capacidad de hacer cumplir cualquier realización significativa de esas recomendaciones". [158]

Los peligros de la biología sintética incluyen peligros de bioseguridad para los trabajadores y el público, peligros de bioseguridad derivados de la manipulación deliberada de organismos para causar daños y peligros ambientales. Los peligros para la bioseguridad son similares a los de los campos existentes de la biotecnología, principalmente la exposición a patógenos y sustancias químicas tóxicas, aunque los nuevos organismos sintéticos pueden presentar nuevos riesgos. [159] [136] Para la bioseguridad, existe la preocupación de que, en teoría, los organismos sintéticos o rediseñados puedan utilizarse para el bioterrorismo. Los riesgos potenciales incluyen la recreación de patógenos conocidos desde cero, la modificación de patógenos existentes para que sean más peligrosos y la modificación de microbios para producir bioquímicos dañinos. [160] Por último, los peligros ambientales incluyen efectos adversos sobre la diversidad biológica y los servicios de los ecosistemas, incluidos los posibles cambios en el uso de la tierra como resultado del uso agrícola de organismos sintéticos. [161] [162]

Los sistemas de análisis de riesgo existentes para los OMG generalmente se consideran suficientes para los organismos sintéticos, aunque puede haber dificultades para un organismo construido "de abajo hacia arriba" a partir de secuencias genéticas individuales. [137] [163] La biología sintética generalmente se rige por las reglamentaciones existentes para los OMG y la biotecnología en general, y cualquier reglamentación que exista para los productos comerciales posteriores, aunque en general no existen reglamentaciones en ninguna jurisdicción que sean específicas de la biología sintética. [164] [165]


¿Qué es la carne?

A corto plazo, con los productos cárnicos cultivados más básicos que se prevé estarán listos para el cambio de década, una pregunta más importante puede ser si la gente está lista para comerlos. ¿Los consumidores beberán leche sintética y comerán carne de laboratorio, o se desanimarán? Los alimentos genéticamente modificados (GM), por ejemplo, todavía desconfían de muchos.

Organizaciones como la Modern Agriculture Foundation ya están preparando el terreno para la llegada de la carne in vitro, educando a la gente sobre por qué la necesitamos. El director de la Fundación, Shaked Regev, cree que la carne cultivada no tendrá el mismo problema que enfrentan las alternativas de carne existentes porque es muy similar. "Es el verdadero negocio, no se puede diferenciar esto de la carne tradicional bajo un microscopio", dice.

Las encuestas sugieren que existe la voluntad de probar esta carne moderna. Una encuesta de la población holandesa indicó que el 63 por ciento de la gente estaba a favor del concepto de carne de res cultivada y el 52 por ciento estaba dispuesta a probarlo. Otra encuesta realizada por The Guardian encontró que el 69 por ciento de las personas querían probar la carne cultivada. Sin embargo, si la gente busca las hamburguesas cultivadas semana tras semana en el supermercado, es un asunto completamente diferente.

La gente siempre será extremadamente sensible sobre lo que está en su plato. A pesar de las justificaciones ambientales y de bienestar de la carne cultivada, la idea de que su hamburguesa provenga de un laboratorio en lugar de una granja es una idea extraña. Pero si la carne artificial está a la altura de su promesa y se convierte en la forma ecológica, más segura, más barata e incluso más sabrosa de comer carne, el concepto de criar millones de animales para el matadero podría parecer rápidamente mucho más extraño.

Este es un extracto de La Fábrica de Carne Artificial en el número 298 de BBC Focus revista: no se pierda la función completa de suscribiéndote aquí.


La aplicación de la biología sintética a la salud y la medicina humanas

La biología sintética es una nueva asignatura interdisciplinaria establecida en bioinformática, tecnología sintética de ADN, genética y biología de sistemas. La biología sintética es el diseño / construcción racional y sistemática de sistemas biológicos con la funcionalidad deseada. Una de sus herramientas más poderosas es Síntesis de ADN tecnología recientemente, el costo de síntesis de genes se ha reducido 10 veces en los últimos 15 años, lo que ha provocado un auge en el desarrollo de la biología sintética. A medida que comprendamos más sobre la síntesis de genes y sus aplicaciones, los beneficios de la biología sintética podrían llegar a una amplia variedad de campos diferentes, incluidos la medicina, la agricultura, el desarrollo de fármacos y la bioingeniería.

La aplicación de la biología sintética a la salud humana.

La tecnología de biología sintética tiene usos potenciales en tratamientos clínicos que pueden sintetizar circuitos de genes para detectar variantes de genes o estructuras patógenas en modelos animales enfermos. Actualmente, los científicos han sintetizado una serie de circuitos genéticos en células de mamíferos, lo que podría conducir al tratamiento y la prevención absoluta de muchas enfermedades genéticas en humanos. La biología sintética también puede conducir al tratamiento de trastornos metabólicos. Por ejemplo, Dean et al. incorporó un circuito genético sintético que codifica la vía de derivación del glicooxilato en las células del hígado de los ratones, lo que produce un aumento de la oxidación de los ácidos grasos.

La aplicación de la biología sintética a la medicina.

La biología sintética es útil para la detección y el descubrimiento de fármacos, y puede utilizarse para descubrir nuevos sitios de orientación de fármacos. Con el rápido desarrollo de la biología sintética, se pueden utilizar nuevas herramientas en bioinformática para analizar posibles dianas de fármacos. La biología computacional y la nueva tecnología pueden identificar rápidamente secuencias codificantes de proteínas verdaderas a partir de datos de secuencias de ADN, proporcionando predicciones precisas de secuencias codificantes frente a no codificantes.

Synbio Technologies es una empresa de tecnología de ADN que se especializa en la investigación de biología sintética. Podemos diseñar y diseñar artificialmente sistemas biológicos y organismos vivos con el fin de mejorar las aplicaciones para la industria o la investigación biológica. Synbio Technologies tiene su propia plataforma de biología sintética profesional para proporcionar soluciones integradas para todas las investigaciones de biología sintética de nuestros clientes.


Podcast de FLI: Sobre el futuro de la computación, la biología sintética y la vida con George Church

El progreso en biología sintética e ingeniería genética promete traer avances en las ciencias de la salud humana al curar enfermedades, aumentar las capacidades humanas e incluso revertir el envejecimiento. Al mismo tiempo, dicha tecnología podría utilizarse para desencadenar nuevas enfermedades y agentes biológicos que podrían plantear riesgos catastróficos y existenciales globales para la vida en la Tierra. George Church, un titán de la biología sintética, se une a nosotros en este episodio del FLI Podcast para discutir los beneficios y riesgos de nuestro creciente conocimiento de la biología sintética, su papel en el futuro de la vida y lo que podemos hacer para asegurarnos de que se mantenga. beneficioso. ¿Seguirá nuestra sabiduría el ritmo de nuestras capacidades en expansión?

Los temas discutidos en este episodio incluyen:

  • Riesgo existencial
  • Sustratos computacionales y AGI
  • Genética y envejecimiento
  • Riesgos de la biología sintética
  • Obstáculos a la colonización espacial
  • Grandes filtros, conciencia y eliminación del sufrimiento.

3:58 ¿Cuáles son los problemas más importantes del mundo?

12:20 Inteligencia colectiva, IA y la evolución de los sistemas computacionales

33:06 Dónde estamos con la genética

38:20 Cronología del progreso de la tecnología antienvejecimiento

39:29 Riesgo de biología sintética

46:19 Pensamientos de George & # 8217 sobre COVID-19

49:44 Obstáculos a superar para la colonización espacial

56:36 Posibilidades para & # 8220Great Filters & # 8221

59:57 Ingeniería genética para combatir el cambio climático

01:02:00 Pensamientos de George & # 8217 sobre el tema & # 8220consciencia & # 8221

01:08:40 Uso de la ingeniería genética para eliminar el sufrimiento voluntario

01:12:17 Dónde encontrar y seguir a George

Este podcast es posible gracias al apoyo de oyentes como tú. Si encuentra que esta conversación es significativa o valiosa, considere apoyarla directamente con una donación en futureoflife.org/donate. Contribuciones como la suya hacen posible estas conversaciones.

¡Todos nuestros podcasts también están ahora en Spotify e iHeartRadio! O encuéntrenos en SoundCloud, iTunes, Google Play y Stitcher.

Lucas Perry: Bienvenido al podcast del Future of Life Institute. Soy Lucas Perry. Hoy tenemos una conversación con el profesor George Church sobre el riesgo existencial, la evolución de los sistemas computacionales, el riesgo biológico sintético, el envejecimiento, la colonización espacial y más. Este mes nos saltaremos el episodio de AI Alignment Podcast, pero tengo la intención de reanudarlo el 15 de junio. Algunos anuncios rápidos para aquellos que no lo saben, actualmente hay una encuesta en vivo que puede realizar sobre los podcasts de alineación de FLI y AI. Y esa es una excelente manera de expresar tu opinión sobre el podcast, ayudar a dirigir su evolución y brindarme comentarios. Puede encontrar un enlace para esa encuesta en la página de este podcast o en la sección de descripción de donde sea que esté escuchando.

El Future of Life Institute también está en medio de su búsqueda del ganador 2020 del Future of Life Award. El premio Future of Life es un premio de $ 50,000 que otorgamos a una persona que, sin haber recibido mucho reconocimiento en el momento de sus acciones, ha ayudado a que el día de hoy sea dramáticamente mejor de lo que podría haber sido de otra manera. Los dos primeros galardonados con el premio Future of Life Institute fueron Vasili Arkhipov y Stanislav Petrov, dos héroes de la era nuclear. Ambos tomaron acciones con gran riesgo personal para posiblemente prevenir una guerra nuclear total. El tercer destinatario fue el Dr. Matthew Meselson, quien encabezó la prohibición internacional de las armas biológicas. En este momento, no estamos seguros de a quién otorgar el Premio al Futuro de la Vida 2020. Ahí es donde entras tú. Si conoces a un héroe anónimo que haya ayudado a evitar un desastre catastrófico global, o que haya realizado un trabajo increíble para garantizar un futuro beneficioso en la vida, dirígete a la página del Premio al Futuro de la Vida y envía un candidato. Por consideración. El enlace para esa página está en la página de este podcast o en la descripción de donde sea que esté escuchando. Si su candidato es elegido, recibirá $ 3,000 como muestra de nuestro agradecimiento. También estamos incentivando la búsqueda a través de la exitosa estrategia del globo rojo del MIT, donde el primero en nominar al ganador recibe $ 3,000 como se mencionó, pero también hay pagos escalonados para la persona que invitó al ganador de la nominación, y así sucesivamente. Puede encontrar detalles sobre eso en la página.

George Church es profesor de Genética en la Facultad de Medicina de Harvard y profesor de Ciencias y Tecnología de la Salud en Harvard y MIT. Es Director del Centro de Tecnología del Departamento de Energía de EE. UU. Y Director del Centro de Excelencia en Ciencias Genómicas de los Institutos Nacionales de Salud. George dirige Biología Sintética en el Instituto Wyss, donde supervisa la evolución dirigida de moléculas, polímeros y genomas completos para crear nuevas herramientas con aplicaciones en medicina regenerativa y bioproducción de sustancias químicas. Ayudó a iniciar el Proyecto Genoma Humano en 1984 y el Proyecto Genoma Personal en 2005. George inventó los conceptos ampliamente aplicados de multiplexación molecular y etiquetas, métodos de recombinación homóloga y sintetizadores de matriz de ADN. Sus numerosas innovaciones han sido la base de varias empresas, entre ellas Editas, centrada en la terapia génica, Gen9bio, centrada en el ADN sintético y Veritas Genetics, que se centra en la secuenciación completa del genoma humano. Y con eso, entremos en nuestra conversación con George Church.

Así que solo quiero comenzar aquí con un panorama un poco más amplio sobre lo que más te importa y consideras como los temas más importantes de hoy.

Iglesia de San Jorge: Bueno, hay dos categorías de importancia. Una son las cosas que son muy comunes y por eso afectan a muchas personas. Y luego hay cosas que son muy raras pero muy impactantes de todos modos. Esas son mis dos categorías principales.No lo eran cuando yo era más joven. No consideré a ninguno de ellos tan en serio. Entonces, ejemplos de cosas muy comunes son las enfermedades relacionadas con la edad, las enfermedades infecciosas. Pueden afectarnos a los 7.700 millones de personas. Luego, en el extremo raro estarían las cosas que podrían acabar con todos los humanos o toda la civilización o todos los seres vivos, asteroides, supervolcanes, erupciones solares y pandemias naturales diseñadas o costosas. Entonces esas son cosas que creo que son problemas muy importantes. Luego, hemos tenido la investigación para mejorar el bienestar y minimizar esas catástrofes. La tercera categoría, o algo relacionada con esas dos, son las cosas que podemos hacer para decir que nos saquemos del planeta, por lo que las cosas serían altamente preventivas del fracaso total.

Lucas Perry: Entonces, en términos de estas tres categorías, ¿cómo ve la asignación actual de recursos en todo el mundo y cómo priorizaría el gasto de recursos en estos temas?

Iglesia de San Jorge: Bueno, la asignación actual de recursos es muy diferente de las asignaciones que establecería para mis propios objetivos de investigación y de lo que establecería para el mundo si estuviera a cargo, en el sentido de que existe una tendencia a ser reactivo en lugar de preventivo. Y esto se aplica tanto a los terapéuticos como a los preventivos y lo mismo para los problemas ambientales y sociales. Todos esos, sentimos que de alguna manera tiene sentido o es más rentable, pero creo que es una ilusión. Es mucho más rentable hacer muchas cosas de forma preventiva. Entonces, por ejemplo, si hubiéramos tenido de manera preventiva un sistema de pruebas extensivas para patógenos, probablemente podríamos ahorrar billones de dólares en una sola enfermedad con COVID-19. Creo que lo mismo ocurre con el calentamiento global. Un poco de ingeniería ambiental preventiva, por ejemplo, en el Ártico, donde relativamente pocas personas se involucrarían directamente, podría ahorrarnos resultados desastrosos en el futuro.

Así que creo que estamos dando prioridad a una fracción muy pequeña para estas cosas. La medicina preventiva y del envejecimiento es quizás un porcentaje del presupuesto de los NIH, y cada instituto reserva entre un porcentaje y un 5% en medidas preventivas. La terapia genética es otra. Medicamentos huérfanos, terapias muy caras, millones de dólares por dosis frente a la asesoría genética que ahora está en los pocos cientos, pronto serán dólares de dos dígitos de por vida.

Lucas Perry: Entonces, en esta primera categoría de problemas generalizados muy comunes, ¿tiene otras cosas que agregaría además del envejecimiento? Al igual que el envejecimiento parece ser el tipo de cosa en la cultura en la que se reconoce como algo inevitable, por lo que no se incluye en la lista de las 10 principales causas de muerte. Pero muchas personas que se preocupan por la longevidad y la ciencia y la tecnología y están a la vanguardia en estas cosas colocarían el envejecimiento en la cima porque son ambiciosos en cuanto a reducirlo o solucionar el envejecimiento. Entonces, ¿hay otras cosas que agregaría a esa lista generalizada muy común, o simplemente serían cosas de las 10 principales causas de mortalidad?

Iglesia de San Jorge: Bueno, la infección fue la otra que incluí en la lista original de enfermedades comunes. Las enfermedades infecciosas no son tan comunes en las partes más ricas del mundo, pero siguen siendo bastante comunes en todo el mundo, el VIH, la tuberculosis y la malaria siguen siendo bastante comunes, millones de personas mueren cada año. La nutrición es otra que tiende a ser más común en las cuatro partes del mundo y que todavía resulta en la muerte. Entonces, los tres primeros estarían relacionados con el envejecimiento.

E incluso si no está interesado en la longevidad e incluso si cree que el envejecimiento es natural, de hecho, algunas personas piensan que las enfermedades infecciosas y las deficiencias nutricionales son naturales. Pero dejando eso a un lado, si atacamos las enfermedades relacionadas con la edad, podemos utilizar la medicina preventiva y los conocimientos sobre el envejecimiento para reducirlas. Entonces, incluso si desea descuidar la longevidad que no es natural, si desea abordar enfermedades cardíacas, accidentes cerebrovasculares, enfermedades pulmonares, caídas, enfermedades infecciosas, todas esas cosas podrían abordarse más fácilmente mediante estudios y terapias y prevenciones del envejecimiento que mediante un asalto frontal a cada microenfermedad, una a la vez.

Lucas Perry: Y en términos de la segunda categoría, riesgo existencial, si tuvieras que clasificar la probabilidad y la importancia de estos riesgos catastróficos existenciales y globales, ¿cómo lo harías?

Iglesia de San Jorge: Bueno, puede clasificar su probabilidad en función de los registros anteriores. Entonces, tenemos algunos registros de supervolcanes, actividad solar y asteroides. Así que esa es una forma de calcular la probabilidad. Y luego también puedes calcular el impacto. Por lo tanto, es un producto, la probabilidad y el impacto de los distintos tipos de eventos registrados. Quiero decir, creo que son lo suficientemente similares como para no estar seguro de clasificarlos por orden de rango.

Y luego las pandemias, ya sean naturales o influenciadas por humanos, probablemente un poco más comunes que las tres primeras. Y luego el cambio climático. Hay registros históricos, pero no está claro que sean predictivos. La probabilidad de que un asteroide golpee probablemente no esté influenciada por la presencia humana, pero el cambio climático probablemente sí lo esté y, por lo tanto, necesitará un modelo diferente para eso. Pero yo diría que es quizás el más probable de todos para tener un impacto.

Lucas Perry: Bueno. El Instituto del Futuro de la Vida, las cosas que nos preocupan principalmente en términos de esta categoría de riesgo existencial serían los riesgos de la inteligencia artificial general y la superinteligencia, también el riesgo biológico sintético que surge cada vez más en el siglo XXI, y luego Una guerra nuclear accidental también sería muy mala, quizás no un riesgo existencial. Eso es discutible. Esas son nuestras preocupaciones centrales en términos de la categoría de riesgo existencial.

De manera relacionada, el Future of Life Institute se ve a sí mismo como parte de la comunidad de altruismo efectivo que, al clasificar las prioridades globales, tiene cuatro áreas de consideración esencial para el impacto. El primero es la pobreza global. El segundo es el sufrimiento animal. Y el tercero son los problemas de riesgo existencial y futuro a largo plazo, que tienen que ver principalmente con los riesgos existenciales antropogénicos. El cuarto es el altruismo metaeficaz. Así que no quiero incluir eso. También tienden a hacer la misma clasificación, ya que principalmente los riesgos a largo plazo de la inteligencia artificial avanzada son básicamente los temas clave que les preocupan.

¿Cómo te sientes con estas perspectivas o cambiarías algo?

Iglesia de San Jorge: Mi sensación es que la inteligencia natural está por delante de la inteligencia artificial y permanecerá allí durante bastante tiempo, en parte porque la biología sintética tiene una pendiente más pronunciada y he incluido la inteligencia natural mejorada en la biología sintética. Eso tiene una pendiente ascendente más pronunciada que la informática totalmente inorgánica ahora. Pero podemos juntarlos. Podemos decir que la inteligencia artificial se escribe en grande para incluir cualquier cosa que nuestros antepasados ​​no tuvieran en términos de inteligencia, lo que podría incluir mejorar nuestra propia inteligencia. Y creo que sobre todo conviene incluir el comportamiento empresarial. El comportamiento corporativo es un tipo de inteligencia que no es natural, está muy extendida y es probable que cambie, mute, evolucione muy rápidamente, más rápido que los tiempos de generación humana, probablemente más rápido que los tiempos de generación de máquinas.

Creo que las armas nucleares están envejeciendo y tal vez sean menos atractivas como mecanismo de defensa. Creo que están siendo reemplazados por inteligencia, artificial o no, o biología colectiva y sintética. Quiero decir, creo que si quisieran tener la destrucción mutuamente asegurada, sería más rentable hacerlo con syn-bio. Pero aún lo mantendría en la lista.

Entonces estoy de acuerdo con esa lista. Me gustan los cambios matizados en el lugar donde es probable que se dirija el disco.

Lucas Perry: Veo. Por tanto, tener en cuenta y reflexionar sobre cómo el cambio tecnológico a corto y medio plazo influirá en la forma en que uno podría querer clasificar estos riesgos.

Iglesia de San Jorge: Sí. Quiero decir, solo creo que una inteligencia mejorada humana colectiva va a ser mucho más disruptiva potencialmente que la IA. Eso es solo una suposición. Y creo que las armas nucleares solo serán parte de una colección de cosas amenazadoras que la gente hace. Probablemente sea más amenazante causar el colapso de una red eléctrica o una pandemia o alguna otra crisis económica que las armas nucleares.

Lucas Perry: Eso es bastante interesante y es muy diferente a la historia que tengo en mi cabeza, y creo que también será muy diferente a la historia que muchos oyentes tienen en la cabeza. ¿Podrías expandir y descomprimir tus cronogramas y creencias sobre por qué crees que la inteligencia orgánica colectiva estará por delante de la IA? ¿Podría decir, supongo, cuándo esperaría que la IA supere la biointeligencia colectiva y algunas de las razones de nuevo por las que?

Iglesia de San Jorge: Bueno, en realidad no espero que la inteligencia basada en silicio nunca pase por alto en todas las categorías. Creo que ya es muy bueno para la recuperación de almacenamiento y las matemáticas. Pero eso está sujeto a cambios. Y creo que parte de las suposiciones ha sido que hemos estado mirando una proyección de la ley de Moore mientras que la mayoría de la gente no ha estado mirando el equivalente de biología sintética y no ha notado que la ley de Moore finalmente podría estar estancada. , al menos como se definió originalmente. Así que esa es una de las razones por las que creo que hay un optimismo excesivo, por así decirlo, sobre la inteligencia artificial.

Lucas Perry: La ley de Moore tiene que ver con el hardware y la computación, ¿verdad?

Iglesia de San Jorge: Sí.

Lucas Perry: Eso no dice nada sobre cómo están cambiando la eficiencia algorítmica y las técnicas y herramientas, y el acceso a big data. Algo de lo que hemos hablado antes en este podcast es que muchas de las ideas y los avances más importantes en el aprendizaje profundo y las redes neuronales no provienen de nuevas técnicas, sino de cantidades más masivas y masivas de computación sobre datos.

Iglesia de San Jorge: De acuerdo, pero esos datos también están disponibles para los humanos como big data. Creo que tal vez el compromiso aquí es que es un sistema híbrido. Solo digo que los humanos más los grandes datos más las computadoras basadas en silicio, incluso si se mantienen planos en el hardware, se ganarán a cualquiera de ellos por separado. Entonces, tal vez lo que estoy defendiendo son sistemas híbridos. Al igual que en su cerebro, tiene diferentes partes de su cerebro que tienen diferentes capacidades y funciones. En un sistema híbrido, tendríamos la sabiduría de las multitudes, además de motores de cómputo, además de big data, pero disponible para todas las partes del cerebro colectivo.

Lucas Perry: Veo. Entonces, es algo así como, no sé si esto sigue siendo cierto, pero creo que al menos en algún momento fue cierto, que los mejores equipos en el ajedrez eran IA más humanos.

Iglesia de San Jorge: Correcto, sí. Creo que eso sigue siendo cierto. Pero creo que será aún más cierto si empezamos a alterar el cerebro humano, lo que ya tenemos la tendencia de intentar hacer a través de la educación, la cafeína y cosas por el estilo. Pero realmente no hay un límite particular para eso.

Lucas Perry: Creo que una de las cosas que dijiste fue que no crees que la IA sola será mejor que la inteligencia biológica en todos los sentidos.

Iglesia de San Jorge: En parte porque la inteligencia biológica es un objetivo en movimiento. La primera suposición era que el hardware seguiría mejorando según la ley de Moore, que no es. El segundo supuesto fue que no alteraríamos la inteligencia biológica. Hay un objetivo en movimiento que era el silicio y la biología no se movía, cuando de hecho la biología se está moviendo en una pendiente más pronunciada tanto en términos de hardware y algoritmos como de todo lo demás, y estamos empezando a ver eso. Así que creo que cuando se consideran ambos, al menos se siembra la semilla de la incertidumbre sobre si la IA es inevitablemente mejor que un sistema híbrido.

Lucas Perry: Bueno. Así que permítanme compartir el tipo de historia que tengo en mi cabeza y luego podrán decir por qué podría estar mal. Los investigadores de IA se han equivocado mucho al predecir lo fácil que sería progresar en IA en el pasado. Entonces, tomando predicciones con muchos granos de sal, si entrevista a los 100 mejores investigadores de IA del mundo, ellos darán un 50% de probabilidad de que haya inteligencia artificial general para 2050. Eso podría estar muy mal. Pero dieron como un 90% de probabilidad de que hubiera inteligencia general artificial para fines de siglo.

Y la historia en mi cabeza dice que espero que la bioingeniería y la ingeniería genética continúen. Espero que haya bebés de diseño. Espero que haya mejoras para los seres humanos cada vez más a medida que nos adentramos en el siglo en capacidad y calidad cada vez mayores. Pero existen diferencias computacionales y de sustrato entre las computadoras y la inteligencia biológica, ya que la velocidad del reloj de las computadoras puede ser mucho mayor. Pueden calcular mucho más rápido. Y luego también está esta idea de que las arquitecturas computacionales en las inteligencias biológicas no son privilegiadas o solo están disponibles de manera única para los organismos biológicos, de modo que, cualesquiera que sean las cosas que pensamos que son realmente buenas o hábiles o que dan a las inteligencias biológicas una gran ventaja en las computadoras, simplemente podrían ser replicado en computadoras.

Y luego hay una facilidad de fabricación masiva de computación y luego emular esos sistemas en computadoras de manera que la forma de computación dominante y preferible en el futuro no será en software biológico sino en silicio. Y por esa razón, en algún momento, habrá una gran ventaja competitiva para que la forma dominante de cómputo e inteligencia y la vida en el planeta se base en el silicio en lugar de la biología. ¿Cuál es tu reacción a eso?

Iglesia de San Jorge: Resumiste muy bien lo que creo que es una cosmovisión dominante de las personas que están pensando en el futuro, y estoy feliz de dar un contrapunto. No soy muy obstinado, pero creo que es digno de considerar ambos porque la razón por la que estamos pensando en el futuro es que no queremos ser ciegos. Y, por cierto, esto podría estar sucediendo muy rápido porque ambas revoluciones están en curso al igual que la fusión.

Ahora, la velocidad del reloj, supongo que la velocidad del reloj puede no ser tan importante como la economía de energía. Y eso no quiere decir que ambos sistemas, llamémoslos bio y no bio, no pueden optimizar la energía. Pero si miras hacia atrás en una especie de historia de la evolución en la tierra, las velocidades de reloj más rápidas, como las bacterias y las moscas de la fruta, no son necesariamente más exitosas en ningún sentido que los humanos. Es posible que tengan más biomasa, pero creo que los humanos somos la única especie con nuestra velocidad de reloj lenta en relación con las bacterias que son capaces de proteger a todas las especies llevándonos a un nuevo planeta.

Y la velocidad del reloj sólo es importante si estás en una competencia directa en un entorno bastante estable donde ganan las bacterias más rápidas. Pero en todo el mundo, la mayoría de las bacterias son de crecimiento muy lento. Si observa el consumo de energía en este momento, que ambos pueden mejorar, hay sistemas de cómputo biológico que posiblemente sean un millón de veces más eficientes energéticamente incluso en tareas en las que el sistema biológico no fue diseñado o evolucionado para esa tarea, pero puede coincidir. Ahora hay otras cosas en las que es difícil de comparar, ya sea por la ventaja intrínseca que tiene el sistema biológico o no biológico, pero cuando están en el mismo marco, se necesitan 100 kilovatios de potencia para funcionar. di Jeopardy! y Vaya a una computadora y los humanos que están compitiendo están usando considerablemente menos que eso, dependiendo de cómo calcule todas las cosas que se requieren para soportar el cerebro de 20 vatios.

Lucas Perry: ¿Cuál crees que es el orden de la diferencia de eficiencia?

Iglesia de San Jorge: Creo que en este momento es un millón de veces. Y esto es en gran parte una cuestión de hardware. Quiero decir que hay componentes algorítmicos que serán importantes. Pero creo que una de las ventajas que tienen los sistemas bioquímicos es que son intrínsecamente atómicamente precisos. Si bien la ley de Moore parece estar estabilizándose en algún lugar alrededor de la resolución de fabricación de 3 nanómetros, eso se aleja quizás mil veces de la resolución atómica. Así que esa es una cosa, que a medida que pasas muchos años, convergerán o se fusionarán de alguna manera para que obtengas las ventajas de la precisión atómica, las ventajas de la baja energía, etc. Por eso creo que estamos avanzando hacia un futuro un poco más molecular. Puede que no sea reconocible como nuestro silicio von Neumann u otras computadoras, ni totalmente reconocible como una sociedad de humanos.

Lucas Perry: Entonces, ¿cree usted que no lograremos alcanzar la inteligencia artificial general como el tipo de cosa que puede razonar tanto sobre los seres humanos como sobre los seres humanos en todos los dominios en los que los seres humanos son capaces de razonar? ¿No lo conseguiremos primero con métodos de cálculo no biológicos?

Iglesia de San Jorge: No, creo que tendremos AGI en varios sustratos diferentes, mecánica, silicio, computación cuántica. Varios sustratos podrán hacer inteligencia general artificial. Es solo que los que lo hagan de la manera más económica serán los que tendremos a utilizar. Habrá un museo lindo que tendrá una colección de todas las formas diferentes, como la computadora de juguete tinker que hizo Tic Tac Toe. Bueno, eso está en un museo en algún lugar al lado de Danny Hillis, pero no lo usaremos para AGI. Y creo que habrá una serie de artefactos como ese, que en la práctica será una colección muy pragmática de cosas que tienen sentido económico.

Por ejemplo, es más fácil hacer una copia de un cerebro biológico. Ahora que una cosa que parece ser una ventaja para las computadoras no biológicas en este momento, es que puede hacer una copia de conjuntos de datos incluso grandes por un gasto de tiempo, costo y energía bastante pequeño. Mientras que, educar a un niño lleva décadas y al final no hay nada que se parezca totalmente a los padres y maestros. Creo que está sujeto a cambios. Por ejemplo, ahora tenemos almacenamiento de datos en forma de ADN, que es aproximadamente un millón de veces más denso que cualquier sistema no químico ni biológico comparable, y puede hacer una copia de él por cientos de julios de energía y centavos. Por lo tanto, puede tener un exabyte de datos en la palma de su mano y hacer una copia con relativa facilidad.

Ahora, esa no es una tecnología madura, pero muestra hacia dónde vamos. Si estamos hablando de 100 años, no hay ninguna razón en particular por la que no puedas tener eso incrustado en tu cerebro y entrada y salida. Y, por cierto, el costo de copiar está muy cerca del límite termodinámico para hacer copias de bits, mientras que las computadoras no se acercan a eso. Se han reducido por un factor de un millón.

Lucas Perry: Veamos & # 8217s si hago esto bien. Su opinión es que existe este beneficio de economía de energía computacional.Existe este elemento de precisión que es beneficioso y que, debido a que la computación biológica tiene ventajas, querremos fusionar los mejores aspectos de la computación biológica con los no biológicos para obtener lo mejor de ambos mundos. Entonces, si bien puede haber muchos AGI diferentes en oferta en diferentes sustratos, el futuro parece híbrido.

Iglesia de San Jorge: Correcto. E incluso es posible que el silicio no esté en la mezcla. No estoy prediciendo que no está en la mezcla. Yo & # 8217 sólo lo digo & # 8217 es posible. Es posible que una computadora atómicamente precisa sea mejor en la computación cuántica o sea mejor en el tiempo o la energía del reloj.

Lucas Perry: Está bien. Entonces tengo una pregunta más adelante sobre este tipo de cosas y la exploración espacial y la reducción del riesgo existencial a través de una mayor colonización, en la que quiero abordar más adelante. Supongo que no tengo mucho más que decir sobre nuestras diferentes historias por aquí. Creo que lo que estás diciendo es muy interesante y desafiante en formas muy interesantes. Supongo que lo único que tendría que decir es que no sé lo suficiente, pero usted dijo que la economía de energía de cálculo es como un millón de veces más eficiente.

Iglesia de San Jorge: Eso es para copiar bits, para ADN. Para realizar tareas complejas, por ejemplo, Go, Jeopardy! o Einstein & # 8217s Mirabilis, ese tipo de cosas normalmente competían entre un cerebro de 20 vatios más una estructura de soporte con una computadora de 100 kilovatios. Y yo diría que al menos en el caso de Einstein & # 8217s 1905 ganamos, aunque perdamos en Go and Jeopardy !, que es otra cosa interesante, es que los humanos tenemos mucha más variabilidad. Y si toma los valores extremos como una persona en un año, Einstein en 1905 como el representante en lugar de la persona promedio y el año promedio para esa persona, bueno, si fabrica dos computadoras, es probable que sean casi idénticas, que es tanto un positivo como un negativo en este caso. Ahora bien, si hace que Einstein en 1905 sea el promedio para los humanos, entonces tiene un conjunto de objetivos completamente diferente para el AGI que simplemente poder pasar una prueba básica de Turing en la que está simulando a alguien de interés e inteligencia humanos promedio.

Lucas Perry: Bueno. Entonces, dos cosas de mi parte. En primer lugar, ¿espera que AGI provenga primero de sistemas puramente no biológicos basados ​​en silicio? Y luego, lo segundo es que no importa cuál sea el sistema, ¿todavía ve el problema de alineación de la IA como el riesgo central de la inteligencia artificial general y la superinteligencia, que es simplemente alinear las IA con los valores, objetivos e intenciones humanos?

Iglesia de San Jorge: Creo que cuanto más nos alejemos de la inteligencia humana, más difícil será convencernos de que podemos educar, y mientras mejor nos engañen ellos. No significa que sean más inteligentes que nosotros. Es sólo que ellos son extraterrestres. Es como si un lobo pudiera engañarnos cuando estamos en el bosque.

Lucas Perry: Sí.

Iglesia de San Jorge: Por tanto, creo que los seres humanos excepcionales son igualmente difíciles de garantizar que comprendamos realmente su ética. Entonces, si tienes a alguien que es un sociópata o un autista de alto funcionamiento, no sabemos realmente después de 20 años de educación ética si realmente lo está pensando de la misma manera que nosotros, o incluso de una manera compatible con la forma en que nosotros lo estamos. . En este caso somos neurotípicos, aunque no estoy seguro de ser uno. Pero de todos modos.

Creo que esto se convierte en un gran problema con AGI y, de hecho, puede estropearlo. Parte de la suposición hasta ahora es que no vamos a cambiar a los seres humanos porque tenemos que obtener la aprobación ética para cambiar a los seres humanos. Pero estamos obteniendo cada vez más la aprobación ética para cambiar a los seres humanos. Me refiero a que las terapias génicas ahora están aprobadas y aumentan rápidamente, todo tipo de interfaces neuronales, etc. Entonces creo que eso cambiará.

Mientras tanto, el AGI basado en silicio, a medida que nos acerquemos a él, cambiará en la dirección opuesta. Será cada vez más difícil obtener aprobación para realizar manipulaciones en esos sistemas, en parte porque existe un riesgo, y en parte porque existe una simpatía por los sistemas. Ahora mismo hay muy poca simpatía por ellos. Pero a medida que se llega al punto en el que las computadoras tienen un nivel de AGI de, digamos, un coeficiente intelectual de 70 o algo así para una persona con discapacidad mental severa para que pueda pasar la prueba de Turing, entonces deberían comenzar a obtener los derechos de una persona discapacitada. Y una vez que tengan los derechos de una persona discapacitada, eso incluiría el derecho a no estar desconectado y el derecho a votar. Y luego eso crea un montón de problemas que no queremos abordar, excepto como ejercicios académicos o muestras de museo que podemos decir, oye, hace 50 años creamos esta inteligencia artificial general, al igual que una vez fuimos a la Luna. . Serían trucos más que demostraciones prácticas porque tendrán derechos y porque representarán riesgos que no serán ciertos para las sociedades humanas mejoradas.

Así que creo que vamos a invertir cada vez más en sociedades humanas mejoradas y cada vez menos en las inciertas basadas en el silicio. Eso es solo una suposición. No se basa en la tecnología, sino en criterios sociales.

Lucas Perry: Creo que depende del tipo de ética y sabiduría que tengamos en ese momento. En general, creo que es posible que no queramos tomar las nociones humanas convencionales de la personalidad y aplicarlas a cosas en las que podría no tener sentido. Por ejemplo, si tiene un sistema que no le importa que se apague, pero que se puede reiniciar, ¿por qué es tan poco ético apagarlo? O si apagarlo no lo hace sufrir, el sufrimiento puede ser una especie de criterio de alto nivel.

Iglesia de San Jorge: De la misma manera, puede crear seres humanos a los que no les importe ser desconectados. Eso no cambiará mucho nuestra ética, no creo. Y también podría hacer computadoras a las que les importe que se apaguen, por lo que tendrá este continuo en ambos lados. Y creo que tendremos reglas comprensivas, pero combinado con el riesgo, que es el riesgo de que puedan lastimarte, el riesgo de que si no las tratas con respeto, será más probable que te lastimen, el riesgo de que los estás lastimando sin saberlo. Por ejemplo, si tiene a alguien con síndrome de enclaustramiento, podría decir: & # 8220Oh, es & # 8217 solo un vegetal, & # 8221 o podría decir, & # 8220 & # 8217, en realidad están sintiendo más dolor que yo porque ellos no tienen agencia, no tienen la capacidad de controlar su situación. & # 8221

Así que creo que crear computadoras que puedan tener el equivalente moral del síndrome de enclaustramiento o algún otro dolor sin la capacidad de anunciar su dolor podría ser muy preocupante para nosotros. Y solo lo superaríamos si eso fuera una solución a un problema existencial o tuviese algún beneficio económico gigantesco. Ya lo he puesto en duda.

Lucas Perry: Entonces, en términos de la primera AGI, ¿tiene un sustrato en particular que imagina que estará en línea?

Iglesia de San Jorge: Supongo que probablemente se acercará mucho a lo que tenemos ahora. Como dijiste, serán algoritmos y bases de datos y cosas así. Y probablemente al principio será un truco, en el mismo sentido que Go and Jeopardy! son acrobacias. No está claro que sean económicamente importantes. Una computadora que pueda pasar la prueba de Turing, será un buen chat bots y contestadores automáticos y cosas así. Pero más allá de eso, puede que no cambie nuestro mundo, a menos que resolvamos problemas energéticos y demás. Así que creo que para responder a su pregunta, estamos tan cerca de eso ahora que podría basarse en una extrapolación de los sistemas actuales.

Creo que la computación cuántica es quizás un caso más especial. Solo porque es bueno para el cifrado, el cifrado es una utilidad social muy importante. Todavía no he visto el cifrado descrito como algo que sea una misión crítica para los vuelos espaciales o para curar enfermedades, además de los componentes sociales de estos. Y la simulación cuántica puede superarse construyendo sistemas cuánticos reales. Así, por ejemplo, los sistemas atómicamente precisos que se pueden construir con biología sintética son sistemas cuánticos que son extraordinariamente difíciles de predecir, pero son muy fáciles de sintetizar y medir.

Lucas Perry: ¿Su opinión aquí es que si el primer AGI está en la escala económica y computacional de una supercomputadora tal que imaginamos que todavía estamos aprovechando realmente grandes cantidades de datos y no hemos hecho avances y algoritmos extremadamente eficientes como la eficiencia aumenta mucho, pero las tendencias actuales continúan y son solo más y más datos y tal vez algunas mejoras algorítmicas, que el primer sistema es realmente grande, torpe y costoso, y luego esa cosa puede intentar hacer de forma recursiva en sí mismo más barato, y luego que la dirección en la que se movería sería crear cada vez más hardware que tenga componentes biológicos sintéticos.

Iglesia de San Jorge: Sí, creo que eso ya existe en cierto sentido. Tenemos un sistema híbrido que se autocorrige, se mejora a sí mismo a un ritmo alarmante. Pero es un sistema híbrido. De hecho, es un sistema híbrido tan complejo que no puede señalar una habitación en la que pueda hacer una copia de sí mismo. Ni siquiera puede señalar un edificio, posiblemente ni siquiera un estado en el que pueda hacer una copia de este sistema de modificación automática porque involucra a humanos, involucra todo tipo de laboratorios fabulosos esparcidos por todo el mundo.

Podríamos establecer una meta para poder hacer eso, pero yo diría que estamos mucho más cerca de lograr esa meta con un ser humano. Puedes tener una habitación donde solo puedas hacer una copia de un humano, y si eso es aumentable, ese humano también puede hacer computadoras. Es cierto que sería una computadora muy primitiva si restringiera a ese humano a suministros primitivos y una sola habitación. Pero de todos modos, creo que esa es la dirección en la que vamos. Y tendremos que ser buenos para hacer cosas en espacios reducidos porque no podremos duplicar fácilmente el planeta Tierra, probablemente tendremos que hacer una versión más pequeña de él y enviarlo. es que podemos discutir más tarde.

Lucas Perry: Está bien. Frio. Esto es bastante interesante y cambiante de perspectiva, y querré pensar en esto más en general en el futuro. Quiero dedicar unos minutos a la siguiente pregunta. Creo que sólo ayudará a que los oyentes tengan una visión general. Has hablado de ello en otros lugares. Pero en general estoy interesado en tener una idea de dónde nos encontramos actualmente con la ciencia de la genética en términos de lectura e interpretación de genomas humanos, y qué podemos esperar en el horizonte de corto a mediano plazo en las ciencias biológicas y genéticas humanas para la salud y la salud. ¿longevidad?

Iglesia de San Jorge: Derecha. La versión corta es que hemos obtenido muchos factores de mejora en la velocidad, el costo, la precisión y la interpretabilidad, 10 millones de veces la reducción en el precio de $ 3 mil millones para un tipo de calidad genómica no clínica de baja calidad de medio genoma en el sentido de que cada uno de los tenemos dos genomas, uno de cada padre. Así que hemos pasado de $ 3 mil millones a $ 300. Probablemente será de $ 100 a mediados de año, y luego seguirá cayendo. No hay ninguna segunda ley particular de la termodinámica o Heisenberg que nos detenga, al menos por otro millón de veces. Ahí es donde estamos en términos de ser técnicamente capaces de leer y, de hecho, escribir ADN.

Pero la interpretación ciertamente hay genes que no sabemos qué hacen, hay enfermedades que no sabemos qué las causa. Hay una gran cantidad de ignorancia. Pero esa ignorancia puede no ser tan impactante como a veces pensamos. A menudo se dice que las enfermedades comunes o las llamadas enfermedades complejas multigénicas desaparecerán en el futuro. Pero lo replantearía un poco para que todos lo consideren, que muchas de estas enfermedades comunes son enfermedades del envejecimiento. No todos, pero muchos, muchos de ellos que nos importan. Y podría ser que atacar el envejecimiento como un programa de investigación específico puede ser más efectivo que tratar de enumerar todos los millones de pequeños cambios genéticos que tienen pequeños efectos fenotípicos sobre estas complejas enfermedades.

Así que ese es otro aspecto de la interpretación en el que no necesariamente tenemos que ser muy buenos en los llamados puntajes de riesgo poligénico. Lo haremos. Estamos mejorando en eso, pero al final podrían ser muchas de las cosas que nos entusiasmaron tanto con la medicina de precisión, y he sido uno de los campeones de la medicina de precisión desde antes de que se llamara así. Pero la medicina de precisión tiene un defecto potencial, que es la tendencia a trabajar en curas reactivas para cánceres específicos y enfermedades hereditarias, etc., cuando la forma preventiva de la misma, que podría ser bastante genérica y menos personalizada, podría ser más costosa. -eficaz y humano.

Entonces, por ejemplo, tomando las enfermedades hereditarias, tenemos de un millón a varios millones de dólares gastados en personas que tienen enfermedades hereditarias por individuo, mientras que un diagnóstico genético de $ 100 podría usarse para prevenir eso. Y las soluciones genéricas como la reversión del envejecimiento o la prevención del envejecimiento podrían detener el cáncer de manera más efectiva que tratar de detenerlo una vez que llega a la etapa metastásica, para lo cual hay una gran cantidad de recursos invertidos. Esa es mi actualización sobre dónde está la genómica. Hay mucho más que podría decirse.

Lucas Perry:

Sí. Como un lego completo en términos de ciencias biológicas, detener el envejecimiento para mí suena como reparar y limpiar el ADN humano y el genoma humano de manera que se repare la información que se pierde con el tiempo. Corríjame si me equivoco o explíqueme un poco cómo podría ser la solución al envejecimiento.

Iglesia de San Jorge: Creo que hay dos tipos de escuelas de pensamiento relacionadas más estrechas, cuál es el daño que hay que # 8217 debe entrar y arreglar la forma en que se arreglaría un bache. Y la otra es que existe un reglamento que informa al sistema cómo repararse. Yo creo en ambos. Tiendo a concentrarme en el segundo.

Si toma una célula muy joven, diga una célula fetal. Tiene una tendencia a repararse mucho mejor que una célula adulta de 80 años. El sistema inmunológico de un niño pequeño es mucho más capaz que el de un niño de 90 años. Esto no se debe necesariamente a daños. Esto se debe a la llamada regulación epigenética del sistema. Así que una célula está convencida de que es joven. Voy a utilizar algunos términos antropomórficos aquí. Entonces, puede tomar una célula de 80 años, en realidad hasta 100 años, reprogramarla en un estado similar a un embrión a través, por ejemplo, de factores Yamanaka que llevan el nombre de Shinya Yamanaka. Y esa reprogramación restablece muchas, no todas, las características, de modo que ahora se comporta como una célula joven no senescente. Si bien es posible que lo haya tomado de un fibroblasto de 100 años que solo se replicaría unas pocas veces antes de envejecer y morir.

Cosas como esas parecen convencernos de que el envejecimiento es reversible y no es necesario que lo controlemos. No tiene que ir allí y secuenciar el genoma, encontrar cada daño y repararlo. La celda se reparará sola.

Ahora, hay algunas cosas como si borra un gen, este desaparecerá a menos que tenga una copia del mismo, en cuyo caso puede copiarlo. Pero esas células probablemente morirán. Y lo mismo sucede en la línea germinal cuando pasas de padres a hijos, ese tipo de cosas que pueden suceder y el proceso de eliminarlas no es terriblemente humano en este momento.

Lucas Perry: ¿Tiene un sentido o líneas de tiempo sobre el progreso del envejecimiento a lo largo del siglo?

Iglesia de San Jorge: Ha habido muchas ilusiones durante siglos sobre este tema. Pero creo que ahora tenemos un escenario tremendamente diferente, en parte porque esta mejora exponencial en tecnologías, lectura y escritura de ADN y la lista sigue y sigue en biología celular y así sucesivamente. Así que creo que de repente tenemos un gran conocimiento de las causas del envejecimiento y formas de manipularlas para revertirlo. Y creo que todos estos son exponenciales y vamos a actuar sobre ellos muy pronto.

Ya estamos viendo algunos medicamentos envejecidos, pequeñas moléculas que están en ensayos clínicos. Mi laboratorio acaba de publicar una terapia génica combinada que afectará a cinco enfermedades diferentes del envejecimiento en ratones y ahora está en ensayos clínicos en perros y, con suerte, en un par de años estará en ensayos clínicos en humanos.

No estamos hablando de siglos aquí. Estamos hablando del tipo de tiempo que se necesita para hacer que las cosas pasen por las pruebas clínicas, que es aproximadamente una década. Y muchas cosas sucediendo en paralelo que luego, después de una década de ensayos paralelos, se fusionarían en ensayos combinados. Así que un par de décadas.

Lucas Perry: Está bien. Así que me voy a meter en problemas aquí si no le hablo del riesgo biológico sintético. Entonces, dejemos que & # 8217s gire en eso. ¿Cuáles son sus puntos de vista y perspectivas sobre los peligros para la civilización humana que planteará una ciencia de la biología sintética cada vez más extendida y avanzada?

Iglesia de San Jorge: Creo que es un riesgo significativo. Volviendo al principio de nuestra conversación, creo que es probablemente uno de los riesgos existenciales más importantes. Y creo que prevenirlo no es tan fácil como las armas nucleares. No es que las armas nucleares sean fáciles, pero es más difícil. En parte porque se está volviendo más barato y la información se está generalizando.

Pero es posible. Parte de esto depende de que haya muchos más altruistas sociales positivos que hagan el bien que que hagan el mal. Sería útil si también pudiéramos tener un gran impacto en la pobreza y las enfermedades asociadas a la pobreza y los trastornos psiquiátricos. El tipo de cosa que causa malestar y causa insatisfacción es lo que inclina la balanza donde un individuo raro o un equipo pequeño hará algo que de otra manera sería impensable incluso para ellos. Pero si son sociópatas o representan una categoría de personas desfavorecidas, entonces se sienten justificados.

Así que tenemos que abordar algunas de esas cosas fundamentales. También sería útil que estuviéramos más aislados. En este momento estamos muy bien mezclados con marihuana, lo que nos pone a ambos en riesgo de contraer enfermedades tanto naturales como artificiales. Entonces, si algunos de nosotros viviéramos en entornos sellados en la Tierra que son muy similares a los entornos sellados que necesitaríamos en el espacio, ambos nos prepararían para ir al espacio. Y algunos de ellos estarían realmente en el espacio. Y así, cuanto más nos alejemos del caos de nuestra maravillosa sociedad actual, mejor. Si tuviéramos una fracción significativa de la población que estuviera aislada, ya sea en la tierra o en otro lugar, se reduciría el riesgo de que todos muramos.

Lucas Perry: Eso tiene sentido. ¿Cuáles son sus intuiciones sobre el equilibrio ofensivo / defensivo en el riesgo biológico sintético? Por ejemplo, si tuviéramos entre un 95% y un 98% de bio-doctores sintéticos y un pequeño porcentaje de actores malévolos o actores que quieren más poder, ¿cómo ves la fuerza y ​​la debilidad relativas de la ofensiva versus la defensa?

Iglesia de San Jorge: Creo que, como de costumbre, es un poco más fácil ofender. Puede ir y venir.Ciertamente, parece más fácil defenderse de un misil balístico intercontinental que de algo que podría contagiarse con la tos. Y lo estamos viendo con creces en este momento. Creo que la fracción de sombreros blancos frente a sombreros negros es mucho mejor que el 98% y tiene que ser así. Tiene que ser más como mil millones a uno. E incluso entonces es muy arriesgado. Pero sí, no es fácil de proteger.

Ahora puede hacer vigilancia para poder restringir la investigación lo mejor que pueda, pero es un juego de números. Es una combinación de eliminar incentivos, agregar una fuerte vigilancia, denunciantes que no temen a los falsos positivos. El paquete sospechoso en el aeropuerto debe ser algo que mires, aunque la mayoría de ellos no sean bombas. Deberíamos tolerar una tasa muy alta de falsos positivos. Pero sí, la vigilancia no es algo en lo que seamos muy buenos. Pertenece a la categoría de medicina preventiva. Y preferiríamos hacer reactivo, es esperar hasta que alguien libere algún patógeno y luego decir, & # 8220Oh, sí, sí, podemos evitar que eso vuelva a suceder en el futuro & # 8221.

Lucas Perry: ¿Existe la oportunidad de estimular o reforzar un sistema inmunológico humano o un sistema público de detección de alerta temprana de agentes biológicos sintéticos poderosos y mortales?

Iglesia de San Jorge: Bueno, sí, es la respuesta simple. Si estimulamos nuestro sistema inmunológico de manera pública, lo que casi tendría que ser, habrá mucha discusión sobre cómo hacerlo, entonces los patógenos que evitan esos aumentos podrían volverse más comunes. En términos de vigilancia, propuse en 2004 que teníamos la oportunidad y todavía lo hacemos de hacer vigilancia sobre todo el ADN sintético. Creo que realmente debería ser 100% mundial. En este momento es un 80% más o menos. Eso es relativamente económico de implementar por completo. Me refiero al hecho de que ya hemos hecho un 80% más cerca de esto.

Lucas Perry: Sí. Entonces, es bastante gracioso, en realidad estaba a punto de preguntarte sobre ese documento al que creo que te refieres. Así que en 2004 usted escribió una propuesta de no proliferación de riesgo biológico sintético, anticipándose al creciente riesgo de uso dual de la biología sintética, que proponía en parte la venta y el registro de ciertas máquinas de síntesis a investigadores verificados. Si tuviera que escribir una propuesta similar hoy, ¿hay algunos elementos básicos de la misma que consideraría incluir, especialmente porque la capacidad de realizar investigaciones en biología sintética ha proliferado enormemente desde entonces? Y en general, ¿se siente cómodo con la gobernanza actual de la investigación de doble uso?

Iglesia de San Jorge: Probablemente no cambiaría mucho ese libro blanco de 2004. Sorprendentemente, el mundo no ha cambiado tanto. Todavía hay un número muy limitado de productos químicos, dispositivos y empresas, por lo que & # 8217 es un cuello de botella que se puede regular y que está siendo regulado por el Consorcio Internacional de Síntesis Genética, IGSC. Abogué en ese entonces y sigo defendiendo que nos acerquemos a un acuerdo internacional. En general, dos sectores de las Naciones Unidas han dicho casualmente que estarían a favor de eso, pero necesitamos esencialmente todos los niveles, desde la ONU hasta los gobiernos locales.

Hoy en día hay muy pocos retrocesos. Hubo un retroceso en 2004 cuando los abogados de la compañía sintieron que serían responsables o habría una invasión de la privacidad de sus clientes. Pero creo que finalmente ganó la razón fundamental de evitar un alto riesgo, por lo que ahora es solo una cuestión de lograr el cumplimiento total.

Una de estas cosas desafortunadas es que cuanto mejor eres para evitar un riesgo existencial, menos personas lo saben. De hecho, lo hicimos tan bien en el Y2K que es incierto si necesitamos hacer algo con respecto al Y2K, y creo que lo mismo será cierto para una serie de desastres que evitamos sin que la mayoría de la población lo sepa. lo cerca que estábamos.

Lucas Perry: Entonces, ¿la principal intervención de vigilancia aquí sería una supervisión y regulación intensas y un seguimiento de las máquinas de síntesis? ¿Y también una organización de perros guardianes que inspeccionaría los productos de dichas máquinas?

Iglesia de San Jorge: Correcto.

Lucas Perry: Bueno.

Iglesia de San Jorge: En este momento, la mayor parte del ADN está ordenada. Enviará su pedido por Internet. Ellos & # 8217 enviarán de vuelta el ADN. Esos mismos principios deben aplicarse a los dispositivos de escritorio. Tiene que obtener algún tipo de aprobación para demostrar que está calificado para producir un ADN en particular antes de que la máquina lo haga. Y tiene que estar protegido contra la piratería de hardware y software, lo cual es un desafío. Pero de nuevo, es un juego de números.

Lucas Perry: Entonces, sobre el tema del riesgo biológico, estamos actualmente en el contexto de la pandemia de COVID-19. ¿Qué crees que la humanidad debería tomar como lecciones del COVID-19?

Iglesia de San Jorge: Bueno, creo que el más grande está probando. Probablemente, las pruebas sean la forma más rápida de solucionarlo en este momento. Las ubicaciones geográficas que se han retirado más rápido fueron las mejores en pruebas y aislamiento. Si sus pruebas son lo suficientemente buenas, ni siquiera tiene que tener un muy buen rastreo de contactos, pero eso también es valioso. Las inyecciones más largas son curas y vacunas y no son del todo necesarias y son a largo plazo e inciertas. No hay garantía de que podamos encontrar una cura o una vacuna. Por ejemplo, el VIH, la tuberculosis y la malaria no tienen buenas vacunas, y la mayoría de ellas no tienen curas estables excelentes. El VIH es una serie completa de curas a lo largo del tiempo. Pero ni siquiera cura. Son más mantenimiento, gestión.

Espero sinceramente que el coronavirus no esté en esa categoría de VIH, tuberculosis y malaria. Pero no podemos hacer salud pública basándonos únicamente en esperanzas. Así que probando. He estado solicitando un mapa meteorológico biológico y trabajando para mejorar la tecnología para hacerlo desde alrededor de 2002, que fue antes del SARS 2003, como parte de la inspiración para el proyecto del genoma personal, fue esta idea audaz de mapa meteorológico biológico. Deberíamos estar al menos tan interesados ​​en lo que hace la biología geográficamente como en lo que hacen los frentes de baja presión geográficamente. Podría ser extremadamente económico, ciertamente en relación con el costo multimillonario de una enfermedad.

Lucas Perry: Entonces, dada la pandemia en curso, ¿qué ha demostrado COVID-19 sobre los sistemas humanos globales en relación con el riesgo catastrófico existencial y global?

Iglesia de San Jorge: Creo que es una demostración dramática de que somos más frágiles de lo que nos gustaría creer. Es una demostración de que tendemos a ser más reactivos que proactivos o preventivos. Y es una demostración de que somos heterogéneos. Que hay razones geográficas y sistemas políticos mejor preparados. Y yo diría que, en este punto, Estados Unidos es probablemente uno de los menos preparados, y eso fue predecible para las personas que pensaron en esto con anticipación. Ojalá estemos adecuadamente preparados para no salir de esto como una nación del tercer mundo. Pero esa sigue siendo una posibilidad.

Creo que es extremadamente importante hacer que nuestros sistemas humanos, especialmente los sistemas globales, sean más resistentes. Sería bueno tomar como ejemplo los países que lo hicieron mejor o incluso las ciudades que lo hicieron mejor. Por ejemplo, las ciudades de Vo, Italia y creo que Bolinas, California, y tratar de extender eso a las regiones que lo hicieron peor. Con solo aislarlo y probarlo, puede eliminarlo. Ese tipo de cosas es algo que deberíamos tener en todo el mundo. Para hacer que los sistemas humanos sean más resistentes, podemos alterar nuestros cuerpos, pero creo que es muy efectivo alterar nuestras estructuras sociales para que hagamos pruebas con más frecuencia, estamos monitoreando constantemente tanto las fuentes zoonóticas como las pruebas de carne de animales silvestres y todos los lugares donde estamos acercarse demasiado a los animales. Pero también probar nuestras ciudades y todos los entornos en los que se encuentran los humanos para que tengamos una mayor probabilidad de ver al paciente cero antes de que se convierta en un paciente.

Lucas Perry: La última categoría que mencionaste al comienzo de este podcast fueron las medidas preventivas y parte de eso fue no tener todos nuestros huevos en la misma canasta. Eso tiene que ver con, digamos, la colonización de Marte o la colonización de otras lunas que quizás sean más habitables y luego eventualmente a Alpha Centauri y más allá. Entonces, con biología avanzada e inteligencia artificial avanzada, tendremos mejores herramientas e información para una colonización espacial exitosa. ¿Cuáles cree que son los principales obstáculos a superar para colonizar el sistema solar y más allá?

Iglesia de San Jorge: Así que comenzaremos con el sistema solar. La mayor parte del sistema solar no es agradable en comparación con la Tierra. Es un vacío y hace frío, incluido Marte y muchas de las lunas. Hay lunas que tienen más agua, más agua líquida que la Tierra, pero normalmente se requiere algo de perforación para llegar a ella. Hay & # 8217s radiación. Hay & # 8217s baja gravedad. Y no somos adaptables.

Entonces, quizás tengamos que hacer algunos cambios biológicos. No son necesariamente la línea germinal, pero serán equivalentes. Hay cosas que podrías hacer. Puedes simular la gravedad con centrifugadoras y puedes simular la protección radiológica que tenemos en la tierra con campos magnéticos y blindaje grueso, equivalente a 10 metros de agua o suciedad. Pero habrá una tendencia a intentar solucionar esos problemas. Habrá problemas de enfermedades infecciosas, cuáles queremos traer con nosotros y cuáles queremos poner en cuarentena. Esa es una oportunidad más que un problema exclusivamente relacionado con el espacio.

Creo que muchas de las barreras son biológicas. Necesitamos practicar la construcción de colonias. En este momento nunca hemos tenido un sistema humano completamente reciclado. Tenemos sistemas de plantas y animales completamente reciclados, pero ninguno que sea humano, y eso tiene que ver en parte con cuestiones sociales, prácticas de higiene y alimentación, etc. Creo que se puede hacer, pero debería probarse en la Tierra porque las consecuencias de una falla en una luna o en un planeta no terrestre son mucho más graves que si lo probaras en la Tierra. Deberíamos tener miles, posiblemente millones de pequeñas colonias espaciales en la Tierra, ya que uno de mis proyectos favoritos lo está haciendo para que sea económicamente factible en la Tierra. Solo mediante pruebas intensas a esa escala encontraremos los trucos reales y los modos de falla.

Y luego la barrera final, que está más en la categoría en la que la gente piensa es la economía de, si hace el cálculo físico de cuánta energía se necesita para poner un kilogramo en órbita o fuera de órbita, es mucho, mucho menos que el costo por kilogramo, órdenes de magnitud de lo que hacemos actualmente. Así que hay alguna oportunidad de mejora. Entonces eso & # 8217s en el sistema solar.

Fuera del sistema solar, digamos Proxima B, Alpha Centauri y cosas de ese rango, no hay nada particularmente interesante entre aquí y allá, aunque no hay nada que nos impida ocupar el vacío del espacio. Llegar a cuatro años luz y medio requiere una revolución en la propulsión y la sostenibilidad en un contenedor muy pequeño, o una revolución en el tamaño del contenedor que estamos enviando.

Entonces, un proyecto favorito en el que estoy trabajando es intentar hacer un objeto del tamaño de un nanogramo que contenga la información suficiente para construir una civilización o al menos construir un dispositivo de comunicación que sea mucho más fácil de acelerar y desacelerar un nanogramo de lo que es. para hacer cualquiera de las escalas de sondas espaciales que usamos actualmente.

Lucas Perry: Muchos de los problemas a los que se enfrentarán los seres humanos dentro del sistema solar y más allá de las máquinas o la computación sintética que existen hoy parecen más robustos. Una vez más, hay cosas de las que ya ha hablado, como la eficiencia y precisión computacional para la autorreparación y otros tipos de cosas que las computadoras modernas pueden no tener. Así que creo que sería útil un poco de perspectiva sobre eso, como por qué no podríamos esperar que las máquinas reemplacen a los humanos en muchos de estos esfuerzos.

Iglesia de San Jorge: Bueno, por ejemplo, sería difícil incluso estimar, todavía no he visto una buena estimación de un dispositivo autónomo que pueda hacer una copia de sí mismo a partir de la suciedad o lo que sea, los productos químicos que están disponibles para él. en un nuevo planeta. Pero sabemos cómo hacer eso con humanos o sistemas híbridos.

Aquí & # 8217s un ejemplo perfecto de un sistema híbrido. Es un ser humano no puede & # 8217t simplemente salir al espacio. Necesita una nave espacial. Una nave espacial tampoco puede salir al espacio. Necesita un humano. Entonces, hacer un sistema de replicación parece una buena idea, tanto porque estamos replicando sistemas como porque reduce el tamaño del paquete que necesita enviar. Entonces, si desea tener un millón de personas en el sistema Alpha Centauri, podría ser más fácil enviar algunas personas y un montón de embriones congelados o algo así.

Enviar una inteligencia artificial general no es suficiente. También tiene que poder hacer una copia de sí mismo, lo que creo que es un obstáculo mucho más alto que solo AGI. Creo que AGI, lo lograremos antes de lograr AGI más replicación. Puede que no sea mucho antes, probablemente será antes.

En principio, muchos organismos, incluidos los humanos, parten de células individuales y los mamíferos tienden a necesitar más estructura de soporte que la mayoría de los otros vertebrados. Pero, en principio, si aterriza un huevo fertilizado de vertebrado en un ambiente acuático, se desarrollará y hará copias de sí mismo y tal vez incluso de estructuras.

Entonces, mi especulación es que existe una celda de nanogramos que es aproximadamente del tamaño de muchos huevos de vertebrados. Existe un diseño para un nanogramo que sería capaz de lidiar con una amplia variedad de entornos hostiles. Tenemos organismos que prosperan en todas partes entre el punto de congelación del agua y el punto de ebullición o más de 100 grados a alta presión. Así que tiene este nanogramo que está adaptado a una variedad de entornos diferentes y puede reproducirse, hacer copias de sí mismo, e incorporado en él una gran cantidad de conocimientos sobre cómo construir cosas. De la misma manera en que la construcción de un nido está integrada en el ADN de un pájaro, podría haber programado la capacidad de construir computadoras o una radio o transmisores láser para que pudiera comunicarse y obtener más información.

Entonces, un nanogramo podría viajar a una velocidad cercana a la de la luz y luego comunicarse a una velocidad cercana a la de la luz una vez que se replica. Creo que eso ilustra el valor de los sistemas híbridos, dentro de este caso particular, un gran énfasis en los componentes bioquímicos y biológicos que son capaces de replicarse como el elemento central que necesita para un transporte eficiente.

Lucas Perry: Si su afirmación sobre los sistemas híbridos es cierta, entonces si la extrapolamos para decir el futuro profundo, entonces si hay otras civilizaciones por ahí, entonces la forma en que las encontraremos probablemente también sean sistemas híbridos.

Y este punto me lleva a reflexionar sobre algo de lo que habla Nick Bostrom, los grandes filtros que son supuestos puntos en la evolución y génesis de la vida a lo largo del cosmos que son muy difíciles para que la vida supere esos saltos evolutivos, así que casi todas las cosas. no lo haga a través del filtro. Y se supone que esta es una forma de explicar la paradoja de Fermi, ¿por qué hay cientos de miles de millones de galaxias y no vemos ninguna superestructura alienígena o no hemos conocido a nadie todavía?

Entonces, tengo curiosidad por saber si tiene alguna idea u opinión sobre cuáles podrían ser los principales filtros para alcanzar la civilización interestelar.

Iglesia de San Jorge: De todas las preguntas que me ha hecho, esta es la que me hace sentir más inseguro. Estudio, entre otras cosas, cómo se originó la vida, en particular cómo hacemos biopolímeros complejos, por lo que los ribosomas producen proteínas, por ejemplo, el código genético. Eso me parece bastante difícil de haber surgido. Ese es un filtro. Quizás mucho antes de lo que mucha gente pensaría.

Otro podría ser la falta de interés de que una vez que alcanzas un cierto nivel de sofisticación, estás feliz con tu vida, tu civilización y, por lo general, estás invadido por alguien o algo que es más primitivo desde tu perspectiva. Y luego se vuelven complacientes y el ciclo se repite.

O la incomprensión de los recursos. Quiero decir que hemos visto varias civilizaciones insulares que se han extinguido porque no tenían un ecosistema sostenible, o podrían volverse hacia adentro. Ya sabes, como la Isla de Pascua, se interesaron mucho en hacer estatutos y derribar árboles para poder hacer eso. Y así terminaron con una isla que no tenía árboles. No usaron esos árboles para construir barcos para poder poblar el resto del planeta. Simplemente calcularon mal.

Entonces, todos esos podrían ser barreras. No sé cuál de ellos es. Probablemente hay muchos planetas y lunas donde si trasplantamos vida, prosperaría allí. Pero podría ser que simplemente crear vida en primer lugar sea difícil y luego crear inteligencia y civilizaciones que se preocupen por crecer fuera de su planeta. Puede ser difícil detectarlos si están creciendo de manera sutil.

Lucas Perry: Creo que lo primero que mencionaste podría ser antes de lo que algunas personas esperan, pero creo que para muchas personas que piensan en filtros geniales no es como abiogénesis, si esa es la palabra correcta, parece realmente difícil obtener las primeras cosas que se auto-replican. en los océanos antiguos que van. Parecía haber una pérdida de filtros potenciales desde allí hacia organismos multicelulares y luego inteligencias generales como las personas y más allá.

Iglesia de San Jorge: Pero muchos imperios simplemente se han vuelto complacientes y han sido superados por una tecnología perfectamente obvia que al menos podrían haber mantenido al día mediante el espionaje, si no por la invención. Pero se volvieron complacientes. Parecen estabilizarse aproximadamente en el mismo lugar. Nos estamos estabilizando más o menos en el mismo lugar en el que se estabilizaron los isleños de Pascua y el Imperio Romano. Hoy me refiero a las ligeras diferencias de que tal vez ahora somos una civilización espacial.

Lucas Perry: Apenas.

Iglesia de San Jorge: Sí.

Lucas Perry: Entonces, el cambio climático ha sido algo en lo que parece que has estado pensando mucho. Tiene el Proyecto del Mamut Lanudo en el que no necesitamos entrar necesariamente aquí. Pero, ¿está considerando o es optimista acerca de otros métodos de uso de la ingeniería genética para combatir el cambio climático?

Iglesia de San Jorge: Sí, creo que la ingeniería genética tiene potencial. La mayoría de las otras cosas de las que hablamos son la instalación de LED o motores de automóvil ligeramente más eficientes, energía solar, etc. Y estos están frenando lo inevitable en lugar de revertirlo. Para revertirlo, necesitamos eliminar el carbono del aire, y una manera realmente excelente de hacerlo es con la fotosíntesis, en parte porque se construye a sí mismo. Entonces, si permitimos que el Ártico haga la fotosíntesis como solía hacerlo, podríamos obtener una pérdida neta de dióxido de carbono de la atmósfera y ponerlo en el suelo en lugar de liberar mucho.

Esa es parte de la razón por la que estoy obsesionado con las soluciones árticas y el Océano Ártico también es similar.Es el lugar donde se obtiene el afloramiento de nutrientes y, por lo tanto, se obtiene una tasa natural muy alta de fijación de carbono. Es solo que también tiene una alta tasa de consumo de carbono en dióxido de carbono. Entonces, si pudieras cambiar ese ciclo un poco. Así que creo que tanto la tierra ártica como el océano son un lugar muy bueno para revertir el carbono y la acumulación en la atmósfera, y creo que eso se hace mejor con biología sintética.

Ahora, las barreras históricamente han sido la liberación de ADN recombinante en la naturaleza. Ahora tenemos salmón que está esencialmente en la naturaleza, los humanos que están diseñados que están en la naturaleza, y tenemos arroz dorado que finalmente se usa después de más de una década de pelea en Filipinas.

Así que creo que veremos más y más de eso. Hasta cierto punto, incluso las plantas agrícolas están en estado salvaje. Esta es una de las cosas que fue controvertida, fue que el polen se estaba esparciendo por todos lados. Pero creo que hay & # 8217 esencialmente cero ejemplos de ADN recombinante que cause daño humano. Por tanto, debemos ser cautelosos con nuestra toma de decisiones medioambientales.

Lucas Perry: Está bien. Ahora dando un giro brusco aquí. En la filosofía de la conciencia hay una distinción entre el problema difícil de la conciencia y el problema fácil. El problema difícil es ¿por qué los sistemas computacionales tienen algo que se asemeja a ser ese sistema? ¿Por qué hay una perspectiva fenomenal en primera persona y una perspectiva experiencial llena de lo que podríamos llamar qualia? Algunas personas rechazan el problema difícil como algo real y prefieren decir que la conciencia es una ilusión o no es real. Otras personas son realistas sobre la conciencia y creen que la conciencia fenoménica es sustancialmente real y está en la misma base ontológica o metafísica que otras fuerzas fundamentales de la naturaleza, o que quizás la conciencia revela la naturaleza intrínseca de lo físico.

Y luego los problemas fáciles son cómo es que vemos, cómo es que la luz entra en los ojos y se computa, cómo es que ciertas cosas están relacionadas computacionalmente con la conciencia.

David Chalmers llama a otro problema aquí, el metaproblema de la conciencia, y es por eso que hacemos informes sobre la conciencia. ¿Por qué incluso hablamos de conciencia? ¿Particularmente si es una ilusión? Tal vez esté realizando algún tipo de eficiencia computacional extraña. Y si es real, parece haber cierta tensión entre el modelo estándar de la física, ser un sentimiento bastante completo, y entonces, ¿cómo es que estaríamos haciendo informes sobre algo que no tiene & # 8217t una eficacia causal real si no hay & # 8217s nada? real para agregar al modelo estándar?

Ahora tienes el Proyecto Conectoma Humano, que parecería ayudar mucho con los problemas fáciles de la conciencia y tal vez podría tener algo que decir sobre el metaproblema. Entonces, tengo curiosidad por saber si tiene puntos de vista particulares sobre la conciencia o cómo el Proyecto Conectoma Humano podría relacionarse con ese interés.

Iglesia de San Jorge: Bueno. Entonces creo que la conciencia es real y tiene una ventaja selectiva. Para un biólogo, parte de la realidad es la evolución, y creo que está unida de alguna manera al libre albedrío. Pienso en ellos como si fueran reales y difíciles de pensar, pueden ser más fáciles de lo que a menudo pensamos, y esto es cuando lo piensas desde un punto de vista evolutivo o también desde un punto de vista de simulación.

Realmente solo puedo evaluar la conciencia y los qualia mediante observaciones. Solo puedo imaginar que tienes algo similar a lo que siento por lo que haces. Y desde ese punto de vista, no sería tan difícil hacer un sistema sintético que mostrara una conciencia que sería casi imposible de refutar. Y a medida que ese sistema se replicó y adquirió vida propia, digamos que es un sistema híbrido biológico no biológico que muestra la conciencia, para mostrar la conciencia de manera realmente convincente, también tendría que tener alguna inteligencia general o al menos pasar la prueba de Turing.

Pero tendría una ventaja evolutiva en el sentido de que podría pensar o razonar sobre sí mismo. Reconoce la diferencia entre él y otra cosa. Y esto ya se ha demostrado en robots. Es cierto que hay demostraciones de prueba de concepto. Como si tuviera robots que pueden decirse a sí mismos en un reflejo en un espejo de otras personas que operen sobre su propio cuerpo quitando la suciedad de su cara, lo que solo se demuestra en un puñado de especies animales y reconocen su propia voz.

Entonces, puede ver cómo estos tendrían ventajas evolutivas y podrían simularse a cualquier nivel de importancia que sea necesariamente para convencer a un observador objetivo de que son conscientes, hasta donde ustedes saben, en la misma medida en que yo sé que ustedes lo son.

Así que creo que el problema difícil es digno. Creo que es real. Tiene consecuencias evolutivas. Y el libre albedrío está relacionado en ese libre albedrío, creo que es una teoría de juegos que es si te comportas de una manera predecible y completamente determinista, todos los organismos que te rodean tienen una ventaja sobre ti. Saben que vas a hacer una determinada cosa y por eso pueden anticipar eso, pueden robarte la comida, pueden morderte, pueden hacer lo que quieran. Pero si eres impredecible, que es esencialmente libre albedrío, en este caso puede ser un generador de números aleatorios o dados, ahora tienes una ventaja selectiva. Y hasta cierto punto, podría tener más libre albedrío que el humano promedio, aunque el humano promedio está limitado por todo tipo de costumbres sociales y reglas y leyes y cosas así, algo con más libre albedrío podría no serlo.

Lucas Perry: Supongo que solo querría sacar una parte de la autoconciencia de la conciencia en general. Creo que uno puede tener una perspectiva en primera persona sin tener un sentido de sí mismo o ser capaz de reflexionar sobre su propia existencia como sujeto en el mundo. También me siento un poco confundido acerca de por qué la conciencia proporcionaría una ventaja evolutiva, donde la conciencia es la capacidad de experimentar cosas, supongo que tengo algunas intuiciones acerca de que no es causal como tener eficacia causal porque el modelo estándar no parece serlo. falta algo esencialmente.

Y entonces su punto sobre el libre albedrío tiene sentido. Creo que la gente quiere decir cosas muy diferentes aquí. Creo que dentro del discurso común, hay una versión mucho más espeluznante del libre albedrío que podemos llamar libre albedrío libertario, que dice que podría haber hecho lo contrario y está más estrechamente relacionado con la religión y la espiritualidad, lo cual rechazo y yo Creo que la mayoría de las personas que escuchan esto rechazarían. Solo quería señalar éso. Su opinión sobre el libre albedrío tiene sentido y es la versión más científica y racional.

Iglesia de San Jorge: Bueno, en realidad, podría decir que podrían haberlo hecho de otra manera. Si lo consideras religioso, eso es totalmente compatible con tirar la moneda al aire. Eso te ayuda a hacer lo contrario. Si pudieras tomar el mismo escenario, podrías hacer algo diferente. Y esa capacidad para hacer lo contrario es una ventaja selectiva. Como de hecho, las religiones pueden tener una gran ventaja selectiva en determinadas circunstancias.

Así que volviendo a la conciencia versus la autoconciencia, creo que están mucho más entrelazados. Sería cauteloso al intentar desenredarlos demasiado. Creo que su capacidad para razonar acerca de su propia existencia como si estuviera separada de otros seres es muy útil para, por ejemplo, arreglarse a sí mismos, para protegerse, etc. Y creo que tal vez la conciencia que no se trata de uno mismo puede ser un subproducto de eso.

Cuanto mayor sea tu capacidad para razonar sobre ti mismo frente a los demás, tu mano frente al trozo de madera en tus manos te hará más exitoso. Incluso si no eres súper inteligente, el simple hecho de que seas consciente de que eres diferente de la entidad con la que estás compitiendo es una ventaja. De modo que no encuentro muy útil abrir una brecha gigante entre la conciencia y la autoconciencia.

Lucas Perry: Bueno. De modo que me estoy volviendo cada vez más consciente de su tiempo. Nos quedan cinco minutos aquí, así que acabo de recibir una última pregunta para ti y necesito un poco para configurarla. Por lo que tengo entendido, eres vegano.

Iglesia de San Jorge: Si.

Lucas Perry: Y el movimiento de altruismo efectivo está particularmente preocupado por el sufrimiento de los animales. Hemos hablado mucho sobre la ingeniería genética y sus posibilidades. David Pearce ha escrito algo llamado The Hedonistic Imperative que describe una metodología y filosofía para usar la ingeniería genética para eliminar voluntariamente el sufrimiento. Así que eso se puede hacer tanto para los animales salvajes como para la especie humana y nuestros descendientes.

Así que tengo curiosidad por saber cuál es su opinión sobre el sufrimiento animal en general en el mundo, y ¿piensa o tiene alguna idea sobre la ingeniería genética para el sufrimiento de los animales salvajes en lugares fuera de la civilización humana? Y luego, finalmente, ¿ve un papel para la ingeniería genética y la eliminación progresiva del sufrimiento humano, lo que lo hace biológicamente imposible al rediseñar a las personas para que operen en gradientes de dicha inteligente?

Iglesia de San Jorge: Así que creo que este tipo de problema difícil, una técnica que empleo es me imagino cómo sería esto en otro planeta y en el futuro, y si dado ese futuro imaginado, estaríamos dispuestos a volver a donde estamos ahora. En lugar de decir si estamos dispuestos a seguir adelante, le preguntan si está dispuesto a volver. Porque hay un gran respeto por la inercia y la forma en que han sido las cosas. A veces se le llama natural, pero creo que natural incluye el futuro y todo lo que es creado por el hombre, también, todos somos parte de la naturaleza. Así que creo que es más como eran las cosas. Entonces, si va al futuro y pregunta si estaríamos dispuestos a regresar, es una forma diferente de mirar.

Creo que al ir a otro planeta, podríamos querer llevarnos un conjunto limitado de organismos, y podríamos sentir la tentación de producirlos para que no sufran, incluidos los humanos. Hay una cierta cantidad de let & # 8217s say pain que podría ser una pequeña luz roja que se apaga en su tablero. Pero el motivo del dolor es llamar su atención. Y podrías replantear eso. Las personas nacen con insensibilidad crónica al dolor, CIPA, genéticamente, y tienden a tener problemas porque se muerden los labios y otras partes del cuerpo y se infectan, o saltan desde lugares altos porque no duelen ni rompen cosas. no deberían romperse.

Por lo tanto, necesita algún tipo de sistema de alarma que llame su atención y que no se pueda ignorar. Pero creo que podría ser algo de lo que la gente se quejara menos. Incluso podría ser más efectivo porque podría priorizarlo.

Creo que hay mucho potencial allí. Al estudiar a las personas que tienen una insensibilidad crónica al dolor, incluso podría convertirlo en algo que podría encender y apagar. SCNA9, por ejemplo, es un canal en el sistema neurológico humano que no causa los efectos tontos de los opioides. Puede estar libre de dolor sin comprometerse intelectualmente. Así que creo que es una dirección muy prometedora para pensar en este problema.

Lucas Perry: Solo resumiendo eso. ¿Cree que es técnicamente factible reemplazar el dolor con algún otro tipo de cosa sensible a la información que podría tener la misma función para reducir y mitigar el riesgo y señalar el daño?

Iglesia de San Jorge: Incluso podemos hacerlo mejor. En este momento, no somos conscientes de que ciertos estados fisiológicos pueden ser bastante peligrosos y estamos ciegos, por ejemplo, a todos los patógenos en el aire que nos rodea. Estas podrían ser nuevas señales. No se me ocurriría hacer que cada uno de ellos fuera doloroso. Sería mejor simplemente ver los patógenos y tener pequeñas alarmas que se disparen. Es mucho más inteligente.

Lucas Perry: Eso tiene sentido. Entonces, para terminar aquí, si la gente quiere seguir tu trabajo, o seguirte en Twitter u otras redes sociales, ¿cuál es el mejor lugar para ver tu trabajo y seguir lo que haces?

Iglesia de San Jorge: Mi Twitter es @geochurch. Y mi sitio web es fácil de encontrar solo con Google, pero es & # 8217s arep.med.harvard.edu. Esos son los dos mejores lugares.

Lucas Perry: Está bien. Muchas gracias por esto. Creo que mucha de la información que proporcionó sobre la habilidad y las ventajas de la biología y la computación sintética desafiará muchas de las intuiciones de nuestros oyentes habituales y de la gente en general. Encontré esto muy interesante y valioso, y sí, muchas gracias por venir.


Quitina: estructura, función y usos

La capa exterior dura de los artrópodos e insectos como los escarabajos está compuesta principalmente de quitina, un biopolímero natural. El siguiente artículo de BiologyWise elabora más sobre la estructura, función y usos de la quitina.

La capa exterior dura de los artrópodos e insectos como los escarabajos está compuesta principalmente de quitina, un biopolímero natural. El siguiente artículo de BiologyWise elabora más sobre la estructura, función y usos de la quitina.

¿Sabías?

Detrás de la celulosa, la quitina es el segundo biopolímero natural más abundante del mundo.

¿Te gustaría escribir para nosotros? Bueno, estamos buscando buenos escritores que quieran correr la voz. Ponte en contacto con nosotros y hablamos.

Si uno va a observar una langosta de cerca, no puede dejar de notar su dura cubierta exterior. Esta capa exterior protectora, conocida como exoesqueleto, es una característica distintiva de los artrópodos que incluyen crustáceos (cangrejos, langostas, camarones), arácnidos (garrapatas, ácaros, escorpiones y arañas) e incluso insectos (escarabajos, saltamontes, mariposas). La quitina, un biopolímero de origen natural, es un componente importante de este exoesqueleto. Las conchas internas de los cefalópodos y las rádulas de los moluscos también están compuestas principalmente de quitina.

Estructura

La quitina es esencialmente un homopolisacárido lineal (polímero de cadena larga) que consta de unidades repetidas de N-acetil-glucosamina, que es un derivado monosacárido de la glucosa. Estas unidades forman enlaces β-1,4 covalentes. La quitina con la fórmula química (C8H13O5NORTE)norte se considera un carbohidrato complejo, cuya estructura se asemeja a la de la celulosa, con un grupo hidroxilo en cada monómero reemplazado por un grupo acetil amina.

Función

  • Este esqueleto en la parte exterior del cuerpo parece duro y rígido debido a la presencia de quitina que es conocida por sus fuertes propiedades elásticas. Aunque la quitina es el constituyente dominante, otros compuestos como las proteínas y el carbonato de calcio también juegan un papel crucial en la formación del exoesqueleto. La función principal de este exoesqueleto que contiene quitina es mantener el tejido blando interno a salvo de cualquier tipo de lesión.
  • Lo más importante es que evita que estos delicados tejidos se sequen. En definitiva, actúa como barrera estanca frente a la deshidratación, crucial para su supervivencia.
  • El exoesqueleto duro de los artrópodos que contiene quitina también actúa como un mecanismo de defensa contra la depredación. Esta cubierta exterior puede tolerar fuertes tensiones compresivas, que pueden brindar protección contra la depredación porque los depredadores ejercen una fuerza compresiva sobre el exoesqueleto para dañar a su víctima.
  • La pared celular de los hongos que protege al microorganismo del ambiente exterior también está formada por quitina.

Derramamiento de exoesqueleto

La quitina se libera de la piel externa del animal (epidermis) para formar la cubierta protectora. Una vez que el exoesqueleto se desarrolla por completo, el crecimiento de la epidermis se detiene. Además, se encuentra que el exoesqueleto es relativamente rígido, ya que limita el crecimiento con el aumento del tamaño del animal. Entonces, cuando hay un desajuste entre la anatomía del artrópodo y el tamaño del exoesqueleto, puede causar asfixia. Para evitar esto, el animal se deshace del exoesqueleto y comienza a formar uno nuevo. Este proceso de desprendimiento del esqueleto actual se realiza periódicamente, lo cual es necesario para su correcto crecimiento.

Como fertilizante

Uno de los beneficios más importantes de la quitina es su uso en la fabricación de fertilizantes. Los fertilizantes que contienen quitina son orgánicos, no tóxicos y han demostrado aumentar la productividad de los cultivos. La quitina en los fertilizantes ayuda a aumentar los organismos del suelo y las actividades enzimáticas, lo que afecta positivamente la salud del suelo. Esto, a su vez, aumenta el rendimiento de los cultivos.

Como aditivo alimentario

La quitina tiene una larga historia de uso como aditivo alimentario. Se obtiene comúnmente de cangrejos y mariscos que incluyen camarones. A veces, las paredes celulares de los eumicetos (un tipo de hongo) se utilizan como fuente para extraer quitina. La quitina microcristalina (MCC) como aditivo alimentario puede ser útil para mejorar el sabor y el sabor.

Como agente emulsionante

El uso de quitina alimentaria también puede ayudar a crear emulsiones alimentarias estables. Básicamente actúa como un excelente agente emulsionante, que ayuda a prevenir la rotura de la emulsión cuando se expone a otros fluidos. Por ejemplo, las coberturas de postre batidas a menudo contienen quitina que proporciona uniformidad y estabilidad al producto.

Usos medicinales

Este polímero formador de fibras de origen natural también puede ayudar a reducir los niveles de colesterol, como se descubrió a través de estudios en animales. Las moléculas de quitina tienden a limpiar el colesterol y la grasa en el sistema digestivo. Entonces, la quitina en la dieta puede ayudar a reducir la eficiencia de absorción del colesterol.

Como hilo quirúrgico

La quitina también se utiliza para fabricar hilos quirúrgicos resistentes y flexibles. Un buen número de suturas solubles que se utilizan para cerrar heridas están hechas de quitina. Estos puntos comienzan a descomponerse durante el proceso de curación de la herida. Los informes también sugieren que los puntos compuestos de quitina pueden ayudar a facilitar la cicatrización de las heridas.

¿Te gustaría escribir para nosotros? Bueno, estamos buscando buenos escritores que quieran correr la voz. Ponte en contacto con nosotros y hablamos.

La quitina en su forma suplementaria puede ayudar a reducir el colesterol. Además, se dice que la quitina tiene propiedades antioxidantes, antidiabéticas, antiinflamatorias, antimicrobianas, anticoagulantes, antihipertensivas y anticancerígenas. Por lo tanto, tomarlo en forma complementaria puede ser beneficioso para la salud en general.

Artículos Relacionados

La estructura y las funciones de la membrana celular que se tratan en este artículo deben proporcionar información básica asociada con este orgánulo celular. Siga leyendo para saber más.

La función principal de los ribosomas es la síntesis de proteínas de acuerdo con la secuencia de aminoácidos especificada en el ARN mensajero.

La célula vegetal se refiere al componente estructural de la planta. Este artículo de BiologyWise le proporciona la estructura de las células vegetales junto con las funciones de sus componentes.


Suma

Es un grave error para un médico alternativo identificar sustancias ortomoleculares, como el ácido ascórbico, como peligrosas. Las moléculas ortomoleculares o bioidénticas son, por definición, indistinguibles de sus contrapartes creadas naturalmente. Estas moléculas se transportan a las células, independientemente de si son ingeridas o fabricadas de forma endógena por otras células animales. No hay evidencia experimental de que tales moléculas se comporten de manera diferente en el torrente sanguíneo o dentro de las células. De hecho, puede haber menos impurezas de las que aparecen en nuestros alimentos vegetales.

Los argumentos naturalistas tienen un gran atractivo, especialmente para aquellos preocupados por la naturaleza antinatural y tóxica de los medicamentos recetados. Los naturalistas y ortomolecularistas comparten una preocupación común por los productos farmacéuticos. Las compañías farmacéuticas a menudo cambian moléculas naturales u ortomoleculares para que puedan patentarse y ser más rentables. Tales cambios moleculares hacen que los fármacos sean toximoleculares (no ortomoleculares) y potencialmente peligrosos.

Gran parte de lo que sabemos sobre las moléculas necesarias para la vida proviene del estudio de organismos simples, como algunos microbios y levaduras. Estos organismos simples fabrican la mayoría de las vitaminas que necesitan dentro de su única célula. Las plantas fijas también deben conservar la genética para fabricar más sustancias químicas necesarias para reproducirse de las que requieren los animales. Los organismos de orden superior, incluidas las plantas, se han convertido en colonias de células, cada colonia con una función específica, pero muchas, si no todas, las moléculas necesarias para el organismo son producidas por alguna colonia dentro de la planta.

Una vitamina es una sustancia entre un grupo de sustancias traza, incluidas las vitaminas, los minerales y los aminoácidos, que una célula animal no produce pero que es un requisito para la vida. A medida que avanzaba la vida, surgieron animales que comenzaron a comer plantas. Este alimento contenía algunas de las mismas moléculas que las células animales estaban produciendo. Con el tiempo, las especies perdieron las instrucciones genéticas necesarias para crear estas moléculas esenciales. Las sustancias esenciales son las que necesitan las células, menos las que todas las colonias del organismo fabrican y distribuyen a otras células.

La evolución de las plantas es el modelo para los naturalistas, sin embargo, las plantas han evolucionado para protegerse de ser devoradas. A medida que los animales comían y se volvían dependientes de las plantas, se desarrolló una relación arriesgada. El ADN vegetal se ha convertido literalmente en una extensión del ADN animal y los animales que no obtienen una cantidad mínima de cualquiera de las vitaminas que necesitan morirán a causa de la deficiencia.

Los pacientes comatosos pueden mantenerse con vida indefinidamente con productos artificiales que contienen todas las vitaminas sintéticas, más los oligoelementos y las proteínas, grasas y carbohidratos necesarios. Uno de esos productos de nutrición completa es el seguro de Ross Laboratories (. Cuando el producto se desarrolló originalmente, no se sabía que la biotina fuera una vitamina. Los pacientes del programa de garantía temprano se enfermaron y murieron hasta que se agregó biotina a la fórmula.

Todos los productos de nutrición completa, incluido Asegure, proporcionan vitamina C en forma de ácido ascórbico. Ningún producto ofrece un complejo de vitamina C.

La afirmación naturalista de que la vitamina C no es vitamina C, sino que consiste en un complejo de nutrientes, plantea muchas preguntas. ¿Es el ácido ascórbico la sustancia cuya deficiencia conduce al escorbuto o están equivocados miles de estudios experimentales? ¿Por qué se oculta la información científica sobre el complejo de vitamina C? ¿Qué experimentos se han realizado y dónde se publica la ciencia sobre el complejo C, y cómo es posible que Linus Pauling, Sherry Lewin, Steve Hickey, Hiliary Roberts, Irwin Stone, Thomas Levy y otros se hayan perdido esta importante información? ¿Qué es exactamente el complejo? (¿Es el complejo C de la naranja lo mismo que el complejo C del pimiento verde, el mismo que el complejo C del tomate? Si no, ¿qué complejo C es mejor?) ¿Por qué casi todos los animales, excepto los humanos, producen ascórbico ácido, pero no se ha encontrado ningún animal que produzca el complejo C? ¿Por qué el ácido ascórbico sintetizado por el ADN vegetal sería mejor que el ácido ascórbico que sintetizan todos los animales? ¿En qué teoría están equivocados los animales y las plantas tienen razón? ¿Y cómo mantienen vivos los hospitales a los pacientes con productos nutricionales completos que solo contienen ácido ascórbico? Los naturalistas no pueden responder satisfactoriamente a ninguna de estas preguntas.

Hoy, a través de la ciencia de la química, los seres humanos ahora pueden prescindir de la necesidad de ADN vegetal. Codificamos el proceso de síntesis de vitaminas en grandes procesos de fabricación de productos químicos, lo que hace que estas moléculas puras sean confiables, abundantes y a bajo costo. Esta fabricación hace posible que muchas más personas experimenten sus beneficios. Las moléculas de vitamina ortomolecular, sin embargo, son biológicamente idénticas a las moléculas sintetizadas por organismos vivos.


Ver el vídeo: Biologia sintetica -- imaginar es poder. Alejandro Nadra. TEDxRiodelaPlata (Noviembre 2022).