Somos ni√Īos con capacidad tecnol√≥gica de adultos.
Están confluyendo diversas reflexiones de expertos y también mensajes sobrenaturales sobre una nueva etapa en la que está entrando la tecnología, en la cual está adquiriendo la capacidad para modificar profundamente la biología humana y los sistemas que sustentan la vida sobre la Tierra, que tiene altos riesgos de terminar con la especie.
peligro de la biotecnologia

Los riesgos de extinci√≥n de la humanidad que preocupan m√°s a los expertos no son derivados de enfermedades, hambre, inundaciones, depredadores, persecuci√≥n, terremotos, cambios ambientales, porque la humanidad ya sobrevivi√≥ a cat√°strofes de ese tipo. Los mayores riesgos de extinci√≥n se relacionan con las nuevas tecnolog√≠as que se est√°n internando en un campo que supone la modificaci√≥n de nuestra biolog√≠a humana o la construcci√≥n de organismos que nos pueden destruir. ¬ŅCu√°les son las mayores amenazas globales a la humanidad?Un equipo internacional de cient√≠ficos, matem√°ticos y fil√≥sofos en el Instituto del Futuro de la Humanidad de la Universidad de Oxford est√° investigando los mayores peligros. Y argumentan en un trabajo de investigaci√≥n, Riesgos Existenciales como una Prioridad Global, que las autoridades internacionales deben prestar seria atenci√≥n a la realidad de los riesgos de la extinci√≥n de las especies.El director de origen sueco del instituto, Nick Bostrom, dice que lo que est√° en juego no podr√≠a ser mayor. Si lo hacemos mal, esto podr√≠a ser √ļltimo siglo de la humanidad.

¬ŅCU√ĀLES SON LOS MAYORES PELIGROS?

Primero las buenas noticias. Las pandemias y los desastres naturales pueden causar p√©rdidas colosales y catastr√≥ficas de la vida, pero el doctor Bostrom cree que la humanidad ser√≠a probable que sobreviva.Esto se debe a una especie que ya ha sobrevivido a muchos miles de a√Īos de enfermedad, hambre, inundaciones, depredadores, persecuci√≥n, terremotos y cambio ambiental. As√≠ que las probabilidades siguen estando en nuestro favor.Y en el plazo de un siglo, se dice que el riesgo de extinci√≥n por los impactos de asteroides y erupciones volc√°nicas sigue siendo "extremadamente peque√Īo".Incluso las p√©rdidas infligidas a s√≠ misma por la propia humanidad, sin precedentes en el siglo XX en las dos guerras mundiales, y la epidemia de la gripe espa√Īola, no lograron detener el aumento de la poblaci√≥n humana global.La guerra nuclear podr√≠a causar una destrucci√≥n terrible, pero suficientes individuos podr√≠an sobrevivir para que la especie pudiera continuar.Si eso es as√≠, ¬Ņde qu√© debemos realmente preocuparnos?El Dr Bostrom cree que hemos entrado en un nuevo tipo de era tecnol√≥gica con la capacidad de poner en peligro nuestro futuro como nunca antes. Se trata de "amenazas que no tenemos historial de sobrevivir".

LA FALTA DE CONTROL

Compar√°ndolo con un arma peligrosa en manos de un ni√Īo, √©l dice que el avance de la tecnolog√≠a ha superado nuestra capacidad para controlar las posibles consecuencias.Los experimentos en √°reas como la biolog√≠a sint√©tica, la nanotecnolog√≠a y la inteligencia artificial est√°n precipit√°ndose hacia adelante en un territorio de lis imprevisto y lo impredecible.La biolog√≠a sint√©tica, donde la biolog√≠a se encuentra con la ingenier√≠a, promete grandes beneficios m√©dicos. Pero el doctor Bostrom est√° preocupado por las consecuencias imprevistas de la manipulaci√≥n de los l√≠mites de la biolog√≠a humana.La nanotecnolog√≠a, que trabaja en un nivel molecular o at√≥mico, tambi√©n podr√≠a llegar a ser muy destructiva si se usa para la guerra, argumenta. Se ha escrito que los futuros gobiernos tendr√°n un reto importante para controlar y restringir su mal uso.Tambi√©n hay temores sobre c√≥mo la inteligencia artificial o la m√°quina interact√ļe con el mundo exterior.Tal "Inteligencia" dirigida por computador puede ser una herramienta poderosa en la industria, la medicina, la agricultura o la gesti√≥n de la econom√≠a.Pero tambi√©n puede ser completamente indiferente a cualquier da√Īo incidental.

LAS CONSECUENCIAS NO INTENCIONALES

Seán O'Heigeartaigh, un genetista del Instituto, establece una analogía con los algoritmos utilizados en la bolsa de comercio automatizada.Estas cadenas matemáticas pueden tener consecuencias directas y destructivas para las economías reales y la gente real.Estos sistemas informáticos pueden "manipular el mundo real", dice el Dr. O'Heigeartaigh, que estudió la evolución molecular en el Trinity College de Dublín.En cuanto a los riesgos de la biología, se preocupa por las buenas intenciones equivocadas, como los experimentos que levan a cabo modificaciones genéticas, el desmontaje y la reconstrucción de las estructuras genéticas.

"Es muy poco probable que ellos quisieran hacer algo da√Īino", dice.

Sin embargo, siempre hay el riesgo de una secuencia de eventos no deseados o algo que se convierta en perjudicial cuando se transfiere a otro medio ambiente.

"Estamos desarrollando cosas que podrían salir mal en una manera profunda", dice.

"Con cualquier nueva tecnología poderosa debemos pensar con mucho cuidado sobre lo que sabemos - pero podría ser más importante saber sobre lo que no tenemos certeza".

Y él dice que esto no es una carrera de alarmismo, sino que está motivado por la seriedad de su trabajo.

REACCI√ďN EN CADENA

Este ecléctico grupo de investigadores habla de ordenadores capaces de crear más y más poderosas generaciones de computadoras.No se supone que estas máquinas de repente desarrollen una línea de mala conducta. Pero el investigador Daniel Dewey habla de una "explosión de inteligencia", donde el poder de aceleración de las computadoras se vuelve menos predecible y controlable.

"La inteligencia artificial es una de las tecnolog√≠as que pone m√°s y m√°s poder en paquetes m√°s y m√°s peque√Īos" dice el Sr. Dewey, un experto de EE.UU. en super-inteligencia de las m√°quinas que trabaj√≥ anteriormente en Google.

Junto con la biotecnología y la nanotecnología, él dice:

"Ud. puede hacer cosas con estas tecnologías, efectos de tipo de reacción en cadena, por lo que a partir de muy pocos recursos se podrían llevar a cabo proyectos que puedan afectar a todo el mundo."

Lord Rees, el astrónomo real, y el ex presidente de la Royal Society, está respaldando los planes para un Centro para el Estudio de Riesgo Existencial.

"Este es el primer siglo de la historia del mundo cuando la mayor amenaza proviene de la humanidad", dice Lord Rees.

√Čl dice que mientras nos preocupamos acerca de los riesgos individuales m√°s inmediatos, como el transporte a√©reo y la seguridad alimentaria, parece que tenemos muchas m√°s dificultades para reconocer los peligros m√°s grandes.

'ERROR O TERROR'

Lord Rees también pone de relieve las preocupaciones sobre la biología sintética.

"Con cada nueva tecnología en alza, también hay riesgos", dice.

La creación de nuevos organismos para la agricultura y la medicina podría tener imprevistos efectos secundarios ecológicos, sugiere.Lord Rees plantea preocupaciones sobre la fragilidad social y la falta de resiliencia en nuestra sociedad dependiente de la tecnología.

"Es una cuestión de escala. Estamos en un mundo más interconectado, más viajes, noticias y rumores difundidos a la velocidad de la luz. Por lo tanto las consecuencias de un error o de terror son mayores que en el pasado", dice.

¬ŅDEBER√ćAMOS ESTAR PREOCUPADOS POR UN INMINENTE FIN DEL MUNDO?

Esto no es una ficción distópica.El Dr Bostrom dice que hay una brecha real entre la velocidad de los avances tecnológicos y la comprensión de sus implicaciones.

"Estamos en el nivel de ni√Īos en la responsabilidad moral, pero con la capacidad tecnol√≥gica de adultos", dice.

Como tal, la importancia del riesgo existencial "no est√° en los radares de las personas".

Pero argumenta que el cambio est√° llegando estemos o no estemos preparados para ello.

"Hay un cuello de botella en la historia humana. La condición humana va a cambiar. Podría ser que acabemos en una catástrofe o que seamos transformados mediante la adopción de un mayor control sobre nuestra biología".

"No es ciencia ficción, doctrina religiosa o una conversación nocturna en el pub".

Fuentes: BBC, Signos de estos Tiempos

Haga click para ver las otras noticias

Entre su email para recibir nuestra Newsletter Semanal en modo seguro, es un servicio gratis:

S√ļmate a nuestra Newsletter y recibe las √ļltimas publicaciones
en tu bandeja de entrada

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

Ver todo
Estamos migrando el sitio a una nueva plataforma! :)