[:es]La dimensión ética del futuro de la neurotecnología[:]

[:es]Llego ahora a un documento interesantísimo que salió del grupo Morningside formado por reputados neurocientíficos, neurotecnólogos, médicos, filósofos especialistas en ética e ingenieros de machine-intelligence. Desde académicos hasta los más punteros desarrolladores pasando por instituciones de investigación y empresas de casi todo el mundo. Sus conclusiones las puedes ver en este reciente artículo en la revista Nature.

Parten del escenario actual en el que los evangelistas tecnológicos proponen que es inevitable que la evolución del ser humano pasa por usar interfaces neuronales integradas con inteligencia artificial. Y sin embargo, los expertos de Morningside nos advierten de una serie de dificultades éticas que van a surgir antes de lo que esperamos. Si el dilema del tranvía ya nos da para disertar y discutir durante horas mientras la tecnología avanza, ¿hasta dónde podríamos profundizar y debatir con este tema?. Si se intenta cuantificar en inversión, se estima una inversión privada de más de 100 millones de dólares por año sólo en Estados Unidos.

Estos autores admiten que es probable que pasen años o incluso décadas antes de que las interfaces neuronales se utilicen fuera de contextos médicos limitados, y dicen que nos dirigimos hacia un futuro en el que podamos decodificar y manipular los procesos mentales de las personas, comunicarnos telepáticamente y aumentar tecnológicamente las capacidades humanas tanto mentales como físicas.

“Tales avances podrían revolucionar el tratamiento de muchas condiciones … y transformar la experiencia humana para mejor”, escriben. “Pero la tecnología también podría exacerbar las desigualdades sociales y ofrecer a las empresas, los hackers, los gobiernos o cualquier otra persona nuevas formas de explotar y manipular a las personas”. Y podría alterar profundamente algunas características humanas centrales: la vida mental privada, la identidad individual y la comprensión de los individuos”.

Los investigadores identifican cuatro áreas clave: privacidad y consentimiento, identidad, aumentación y parcialidad.

En lo que respecta a la privacidad, las inquietudes son muy similares a las planteadas acerca de la gran cantidad de corporaciones que guardan datos personales. La nueva preocupación adicional se basa en los datos neuronales y por ello proponen prohibir la compartición automática de datos neuronales y la prohibición de que los individuos vendan sus datos.

Sin embargo, cuando se trata de la identidad, los científicos muestran cómo la convergencia de la inteligencia artificial y la neurotecnología podría dar como resultado desafíos completamente nuevos que podrían poner a prueba nuestras suposiciones sobre la naturaleza del yo, la responsabilidad personal y lo que une a los humanos una especie… dilemas éticos y filosóficos que habrían de abordarse, resolverse y respetarse para facilitar el desarrollo tecnológico con el consenso de la humanidad.

Se preguntan si los algoritmos de aprendizaje automático combinados con interfaces neuronales permitirán una especie de función ‘autocompletar’ que podría cubrir la brecha entre la intención y la acción, o si se podría controlar dispositivos telepáticamente a gran distancia o en colaboración con otras mentes. Apasionante sin duda. Es por ello que sugieren algo que a mi juicio es necesario, importante y urgente: añadir “neuroderechos” a la Declaración Universal de Derechos Humanos con el fin de proteger la identidad, integridad y privacidad mental y cognitiva

 

Edd Gent, científico que trabaja en la intersección de la ingeniería, la computación y la biología, proponía en mayo 4 neuroderechos concretos a añadir que reseño en las siguientes líneas:

1. The Right to Cognitive Liberty

2. The Right to Mental Privacy

3. The Right to Mental Integrity

4. The Right to Psychological Continuity

 

Esta propuesta está bien para empezar por la protección de una explotación ilícita o interesada, pero no resuelve los problemas filosóficos principales…

¿Tiene que ver entonces con la educación?

También. Los autores sugieren que estos derechos podrían consagrar un requisito para educar a las personas sobre los posibles efectos secundarios cognitivos y emocionales de las neurotecnologías en lugar de los impactos puramente médicos. Esa es una sugerencia sensata, pero no resolverá el dilema de qué se está dispuesto a “pagar” para tener nuevas capacidades.

A medida que la neurotecnología hace posible que las personas mejoren sus capacidades mentales, físicas y sensoriales, es probable que susciten inquietudes sobre el acceso equitativo, la presión para mantenerse al día y el potencial de discriminación contra aquellos que no lo hacen.

¿Cuántos de los que leéis tenéis los programas de vuestro PC con sus licencias 100% pagadas y al día? ¿Cuánto nos podrían llegar a hacer pagar por actualizarnos el sistema operativo que rija nuestra mente? ¿Y si las actualizaciones más potentes solo llegan a los que más pagan por la suscripción? ¿Os imagináis que de repente nos venden Intelligence As A Service (IAAS)? Depende de cuánto pagas, así de inteligente eres… Y si un mes no pagas, no eres inteligente… incluso, ¿podría ligarse a la memoria, a las relaciones, a las emociones? ¿Se podría pagar por tener emociones? ¿Cuánto pagarías por sentir amor (Emotion As A Service (EAAS)? ¿Y se la propia duración de la vida es un servicio cognitivo? ¿o la seguridad? ¿y la existencia? ¿Te imaginas Existence As A Service (ExAAS)?

La filosofía está que arde y creo personalmente que hemos de darle un protagonismo global. Y más que preocuparnos de menudencias regionalistas o nacionalistas que nos despistan de una evolución humana exponencial.

También existe el peligro de que las aplicaciones militares puedan llevar a una carrera armamentista.

¿Cuánto valía la tecnología en tiempos de la Segunda Guerra Mundial? ¿Cuánto valían los secretos? ¿Cuánto vale el conocimiento? ¿Cuánto los recuerdos, la experiencia e incluso la inteligencia y la creatividad? Si estamos en la era de la inteligencia…

Estos científicos sugieren que se elaboren directrices tanto a nivel nacional como internacional para establecer límites de forma similar a los que se diseñan para controlar la edición genética en humanos, pero admiten que “cualquier línea dibujada será inevitablemente borrosa”. Y es que es bien difícil predecir el impacto que tendrán estas tecnologías y construir un consenso internacional será difícil porque las diferentes culturas le dan más peso a cosas como la privacidad y la individualidad que otras.

La tentación podría ser simplemente prohibir la tecnología por completo, pero los investigadores advierten que esto podría simplemente llevarlo a la clandestinidad. Al final, concluyen que puede depender de los desarrolladores de la tecnología asegurarse de que hace más bien que mal. Sin embargo, no se puede esperar que los ingenieros, a título individual soporten esta presión “contra” corporaciones, gobiernos, etc.

“La historia indica que la búsqueda de beneficios, a menudo prevalecerá sobre la responsabilidad social en el mundo corporativo”, escriben los autores. “E incluso si, a nivel individual, la mayoría de los técnicos se proponen beneficiar a la humanidad, pueden enfrentarse a complejos dilemas éticos para los cuales no están preparados”.

Así nos presentan la situación este grupo de científicos y concluyen diciendo que la sociedad a través de la industria, la academia y la política, necesitan proponer un código de conducta del estilo del “juramento hipocrático” de los médicos.

 

Porque, y esto es ya mi opinión, creo que necesitamos unos estándares éticos mínimos que rijan el desarrollo y evolución de la humanidad en estos tiempos en los que las máquinas pueden aprender solas y nuestra evolución parece que pasa por integrar tecnología en nuestra biología.[:]