¿Está la legislación preparada para la llegada de Black Mirror?

Ante un escenario cercano al mostrado por la popular serie televisiva Black Mirror, la Royal Society de Londres ha instado al gobierno de Reino Unido a poner en marcha una investigación a nivel nacional que aborde la aplicación de las nuevas tecnologías aplicadas al ser humano. Así lo pone de manifiesto en uno de sus últimos informes, titulado iHuman: las líneas borrosas entre la mente y la máquina, en el que la comunidad científica pone de relieve tanto las oportunidades como los desafíos que se estos avances abren a la humanidad.


Más allá de las consideraciones del estudio que sugieren el liderazgo británico en esta materia, la Royal Society profundiza en consideraciones éticas de las interfaces neuronales, esto es, dispositivos implantados en el cuerpo o conectados de manera externa, con los que se estimula el cerebro y el sistema nervioso periférico.

Las últimas investigaciones están explorando el uso de esta tecnología para abordar cuadros de demencia, parálisis cerebral, algunos trastornos mentales o, incluso, la obesidad. En este contexto, la Royal Society subraya la importancia de comprender los riesgos éticos que puede implicar, así como la necesidad de contar con una legislación capaz de regularlo.

El doctor Tim Constandinou, director del Laboratorio de Interfaces Neuronales de Próxima Generación (NGNI) en el Imperial College London está convencido de que “para 2040, las interfaces neuronales probablemente serán una de las opciones para permitir que las personas que han sufrido una parálisis puedan volver a caminar”. Constandinou no descarta, incluso, la utilidad de esta tecnología en el tratamiento del Alzheimer.
 
En la actualidad ya se han llevado a cabo implantes cerebrales para tratar el Parkinson, estimuladores eléctricos para la recuperación de accidentes cerebrovascular; implantes cocleares para personas con pérdida auditiva o, incluso, estimulación transcraneal para aumentar la memoria o la concentración. En realidad, los expertos consideran que estas aplicaciones no han hecho más que empezar, comparando su  estado actual con el que tenían los ordenadores en la década de los 70. Así, tal y como refleja en el informe, a corto plazo podríamos asistir a implantes que permiten escribir en el ordenador o en el móvil con el cerebro o avances telepáticos para comunicarnos con otras personas sin articular palabra, entre muchas otras.

La preocupación de expertos como el director del NGNI en lo que a la legislación se refiere, no sólo se encamina a cerrar el paso abusos, sino también a que sea lo suficientemente flexible como para permitir su desarrollo. De ese modo, afirma, “podemos garantizar que estas tecnologías emergentes se implementen de manera segura y en beneficio de la humanidad”. Una de las preocupaciones es la concerniente a las aplicaciones militares y de seguridad de estos avances. Según indica el estudio, el potencial para mejorar a los humanos tanto mental como físicamente, no solo brinda a los países una mayor protección, sino también los medios para organizar operaciones hostiles de forma remota.

Otros abusos que enumera la Royal Society son los riesgos de que sea posible tener acceso a los pensamientos, estados de ánimo y motivaciones de las personas. Si no existe una regulación precisa, ¿qué impide a las empresas que exijan a sus empleados que usen interfaces que revelen sus sentimientos? Entre los puntos a regular, el estudio enumera todo lo concerniente a los datos que son necesarios recopilar para avanzar en las investigaciones y cómo éstos han de mantenerse seguros cuando se almacenen.

A nivel de mercado, desde la Royal Society muestran su preocupación por que sean únicamente las grandes tecnológicas (Neuralink de Elon Musk, Facebook de Mark Zuckerberg...) las que tengan el monopolio de estas nuevas aplicaciones, de manera que insta a una mayor colaboración entre el gobierno y la Autoridad Reguladora de Medicamentos y Productos Sanitarios del Reino Unido (MHRA) capaz de contrarrestar ese riesgo.
Next Post Previous Post

Sin comentarios