La inteligencia artificial debe basarse en valores humanos

La inteligencia artificial (IA) no debe dejar de ser una herramienta para mejorar la calidad de vida de las personas, afirmó la coordinadora de Humanidades de la UNAM, Guadalupe Valencia García.

Lejos de darle la espalda, negarla o condenarla, se abre nuestra inteligencia y afecto a una herramienta con la cual nos podemos aliar para beneficio de todos, añadió.

Hablar sobre el tema es, sin duda alguna, referirse a los cambios radicales que impactan a la sociedad en todos sus ámbitos: sociodemográficos, culturales, económicos, médicos y hasta el aspecto humano en su sentido ontológico, detalló.

Nuestros tiempos destacan por graves crisis, como la ocasionada por la pandemia de la COVID-19, pero también por la robustez de los avances científicos y tecnológicos, explicó en el auditorio Alfonso Caso, en Ciudad Universitaria.

“Bien sabemos que la IA tiene grandes posibilidades, entre otras brindar las herramientas correctas para la búsqueda de la promoción y mejora de las capacidades humanas; por eso interesa enfatizar su dimensión ética, para el fomento y protección de los derechos fundamentales, con vista al establecimiento de una colaboración eficaz entre seres humanos y dispositivos tecnológicos”.

Esa tecnología ha generado impactos en el contexto social, nuevos modelos de inclusión en el ámbito laboral y formas de creación de arte o cuestionamientos del acceso que la mayoría de la población tiene hacia ella; incluso los elementos que constituyen al ser humano en su sentido más estricto, abundó Valencia García.

Al dictar la conferencia magistral “La recomendación sobre la ética de la inteligencia artificial”, la directora de la Sección de Bioética y Ética de la Ciencia de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), Dafna Feinholz Klip, señaló:

Esas tecnologías carecen de valor neutral, deben estar firmemente basadas en valores humanos, comunes, y en un marco internacional de derechos humanos.

La IA, mencionó, es un punto de inflexión tecnológica y una disrupción antropológica; “está cambiando el tejido social, porque nos relacionamos de otra manera: hablamos menos, por medio de las redes, nos reconocemos con likes y ahora escribimos cartas por medio de Chat GPT, en lugar de pensar lo que queremos decir”.

La vulnerabilidad es central en un contexto de interacciones humanas, donde también tiene impacto esa herramienta. “Si nuestra autoestima depende de cuántos likes tenemos, es muy grave, y se crean problemas de depresión, soledad, etcétera”. Este, acotó, no es sólo un tema para los filósofos, de ahí la importancia de la bioética, que es una disciplina multi y transdisciplinaria.

La extutora y profesora del Posgrado de Bioética de la UNAM alertó que los humanos no pueden sólo desarrollar la tecnología sin hacerse responsables de ella de la “A” a la “Z”, lo cual implica tener consideraciones éticas desde el principio, a partir de su concepción y durante todo su desarrollo y aplicación, para que no se constituyan en “Frankenstein”, en monstruos. “Si nos desentendemos, se puede originar un problema”.

En la sesión, organizada por el Programa Universitario de Bioética (PUB) y la Comisión Nacional de Bioética, puntualizó que se trata de una de las tecnologías de la cuarta revolución industrial; no es sólo una herramienta más, sino que irrumpe y forma parte de nuestra vida cotidiana. “Aunque esto es una generalidad porque mucha gente no tiene acceso a ella, y ese es otro de los puntos éticos importantes a considerar”.

Otra reflexión ética es si todo el mundo debe usarla, o si la debiéramos emplear para todo, expresó. “Estas herramientas tienen sus riesgos y eso es lo que hay que considerar”. Hay una parte positiva que se debe fomentar, pero debemos estar seguros de que temas como la privacidad, sean tomados en cuenta.

Aunque algunos países habían instrumentado iniciativas al respecto, se requería un marco normativo global, que se armonizara el creciente número de estrategias nacionales y regionales, porque se trata de un problema transversal. La UNESCO era la plataforma óptima para lograrlo.

En ese sentido, emitió el documento Recomendación sobre la ética de la inteligencia artificial, adoptado por aclamación de 193 Estados miembro del organismo internacional, el 23 de noviembre de 2021, donde se establece una serie de acciones concretas y un mecanismo de seguimiento, donde los países deben reportar lo que han hecho para implementarlo.

Entre sus valores y principios se encuentra el respeto y protección de los derechos humanos, las libertades fundamentales y la dignidad humana, la protección del medio ambiente y los ecosistemas, y garantizar la diversidad y la inclusión; entre sus características, prohibir el uso de la IA para vigilancia masiva, entre otras, enfatizó.

Al comentar la ponencia, el comisionado nacional de Bioética, Patricio Santillán Doherty, resaltó que, en la actualidad, la IA ha incrementado su capacidad; ejemplo de ello es la acumulación de datos. Se trata de una herramienta que todos queremos usar.

De esos sistemas emerge la posibilidad de autoconciencia, y el desarrollo de procesos de toma de decisión de manera autónoma; asimismo, establecer medidas para asegurar su existencia y activar protocolos de defensa que podrían derivar en posibilidades catastróficas. De ahí la gran preocupación mundial; “debemos tener cuidado, y ese es el llamado de la Recomendación” de la UNESCO; debe prevalecer el interés de la sociedad, expuso.
A la conferencia asistieron Jeniffer Hincapie Sanchez e Itzcóatl Maldonado Reséndiz, directora y secretario académico del PUB, respectivamente.

octubre 13, 2023 - 7:15 pm

Por: Staff

Actualidad

Te recomendamos:


Organizan estudiantes del IEDEP feria de inteligencia en ...

“Vamos a ir por los 3 puntos el domingo ante Pumas”: Kevi...

Geólogos, exploradores por naturaleza

Regeneran huesos y tejidos vivos en humanos con andamios ...

Cansancio emocional y sufrimiento psíquico, padecimientos...