LA ETICA EN LA INTELIGENCIA ARTIFICIAL

(Hay gente que se considera estaciones, y otros que buscan trenes a los que subirse y compartir camino.)

Se genera una gran pregunta, pues el interpretar la ética frente a la inteligencia artificial (IA) no es simplemente oponerse a la tecnología, sino entender cómo los valores humanos deben guiar su desarrollo y aplicación, ya que no se trata de estar “en contra” de la IA, sino buscar los límites éticos con el fin de evitar que su uso cause daños.

Se pensaría que esto sería una forma de proteger los derechos humanos y en consecuencia promover la justicia social y garantizar que la tecnología nos beneficie a todos y no a unos pocos; aquí entonces comenzarían los dilemas éticos: por un lado, la privacidad para saber quién controlaría los datos que recopila la IA; podría haber una discriminación algorítmica para saber si la IA reproduce los perjuicios sociales; hablar de responsabilidad pues quién responde por esta en la de toma una decisión errónea; puede ser manipulada la IA para influir en la toma de decisiones sin que sea notado.

Esos dilemas éticos nos llevarán a comprender las implicaciones sociales y legales, ya que al hablar de ello permitirá la construcción de soluciones tecnológicas que sean equitativas, seguras y alineadas con los principios éticos. Cómo hacer una interpretación ética en que se piense en humanizar la tecnología para respetar la dignidad humana; al regular su impacto se puede evitar las consecuencias imprevistas como el caso de exclusión y extremismo o entender los desafíos y la responsabilidad en la era digital; al promover la equidad se asegura que la IA no aumente las desigualdades existentes.

Podríamos conectar la filosofía con la creatividad, viendo de antemano la nueva frontera del pensamiento moral, ahí es el punto donde se cruza la lógica algorítmica con los valores humanos, como también ser justos cuando una máquina toma decisiones, o cómo definir la libertad cuando los algoritmos predigan nuestros comportamientos.  Explorar corrientes filosóficas como el utilitarismo (la acción moralmente correcta es aquella que produce la mayor felicidad o utilidad para el mayor número de personas), el deontologismo (sostiene que la moralidad de una acción se determina por el cumplimiento de deberes o reglas universales, y no por sus consecuencias) o el pensamiento latinoamericano (preocupación por la identidad y la cultura propias de la región, y su lucha contra el colonialismo, la dependencia y la imposición de modelos extranjeros) e integrar valores éticos en la relación con la IA; aquí hay que tener en cuenta si el ser humano se considera una estación y buscan trenes en los que subirse para aprehender de la IA, o se deja arrastrar  y ver a dónde la lleva esta, o algunos cogerán el mando de las IA para buscar una meta segura y llegar a un continente en donde el paisaje sea seguro, donde pueda sonreír por más de dos segundos y encontrar eso que la hace utilizar la inteligencia artificial como herramienta, para disfrutar de su trabajo o de su vida, o de sus relaciones sociales o educativas o enfrentar la realidad con la cual se conforma y se aleja de esa contradicción constante de lo que es.

El impacto de la IA es innegable en la sociedad y su desarrollo debe ir de la mano con su entorno ético, algunos dirán que es desde la protección de datos hasta la equidad en los algoritmos, o que el gobierno, empresas y academia trabajen juntos para establecer normas que regulen su uso por un lado y se administre de manera justa y responsable, o asegurar un futuro tecnológico en donde todos los profesionales sean capacitados para integrar la ética en cada innovación que vaya de la mano con los resultados algorítmicos de la IA.

¿Cómo garantizar que la IA actúe en el mejor interés de la humanidad?, no se trata de evitar el mal uso sino de insertar valores éticos y adoptar principios morales que guíen tanto la creación como la aplicación de estas tecnologías, y aquí entra en juego la regulación aplicada a la IA pues no se trata de estancar la innovación sino de permitir su desarrollo dentro de esos elementos legales por un lado, y por el otro evitar el sesgo en la justicia, además implantar la transparencia, siendo esto esencial para asegurar que las máquinas están alineadas con  valores  éticos de hoy, como sociedad debemos ser tanto los creadores como custodios que la tecnología definirá el futuro.

Imaginamos un futuro en donde la privacidad sea segura y estable que garantice el manejo de la información, su distribución y uso; en donde la seguridad humana sea elemento importante en razón del poder que se ha dado a la IA desde lo industrial hasta lo académico, desde lo médico hasta lo legal; además no hacer daños ni causar perjuicios desde la responsabilidad ambiental, que permita el florecimiento del medio ambiente y los ecosistemas (Foro Global sobre la Ética de la IA 2024. Documento Unesco), pues la IA está participando en todos los niveles; pero es que dentro de esos valores y principios está inserto la explicabilidad, es decir, que su manejo sea claro y preciso, sin que otorgue poderes de interpretación más allá de los algoritmos; claro está que la IA se aplica a través de una máquina, esta debe ser supervisada por el hombre, ya que de este depende su interpretación y sus resultados; ahora bien, es un hecho cierto que la IA ayuda al hombre en diferentes tareas pero también su diseño debe estar centrado en el ser humano, esto es, diseñado para garantizar su existencia, su alegría, su confort y desarrollo individual; como se anoto anterior la responsabilidad debe aparecer como valor fundamental en el manejo y aplicación de lo que se obtiene con la IA, pues de lo contrario pasaría a violar en algunos casos las normas penales y sociales; pero lo más importante es lo que tiene que ver con la ética y su relación con la IA, es que se debe tener visión a largo plazo para minimizar errores y daños futuros, como también ir de la mano con el planeamiento estratégico social y empresarial.

Como última reflexión sistemática la IA debe estar basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones independientes desde lo ético y lo moral, que guíe a la sociedad a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente con sus ecosistemas.

Igualmente, las IA plantean nuevos tipos de cuestiones éticas que incluyen el impacto en la adopción de decisiones, en el empleo y el trabajo, además la interacción social, salud y educación, los medios de comunicación y el acceso a la información, rebajar la brecha digital con el consumidor y sus datos personales. Y es que la IA está presente en el sistema democrático, el estado de derecho, la seguridad y el mantenimiento del orden, en los derechos humanos y las libertades fundamentales, por lo que estas cuestiones tienen que ver con la capacidad que tiene el ser humano para adaptarse a los nuevos sistemas en especial la IA, pues esta adquirió o está adquiriendo un valor insospechado frente al uso y manejo de otras tecnologías, de ahí que el individuo sea el encargado de determinar su práctica y aplicación en la sociedad y la humanidad, como también su relación con el medio ambiente, creando un nuevo contexto para la comprensión del mundo, con sus nuevas inquietudes sobre la autonomía y capacidad de actuar, el valor y la dignidad del ser humano.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *