TECNOLOGÍA | QUANTUM BABYLON

¿Tiene ética la inteligencia artificial?

¿Tiene ética la inteligencia artificial? ¿Tiene ética la inteligencia artificial?

¿Tiene ética la inteligencia artificial?

Escrito por

Juan Pablo Castillo Cubillo

NO hará más que unos meses cuando el ingeniero de software de Google, Blake Lamoine, alertaba de como la Inteligencia Artificial (IA) LaMDA (Modelo de lenguaje para aplicaciones de diálogo) podría albergar pensamientos y sentimientos. Esta situación provocó su despido de la gran compañía tecnológica y no pocas comparaciones jocosas con SKYNET, la malvada IA de la saga cinematográfica iniciada por James Cameron. Sin embargo, bromas y delirios aparte, lo que esto ha puesto de manifiesto es que la caja de Pandora por fin ha quedado abierta para todo aquel que quiera asomarse a divisar la compleja situación: albergar pensamientos y sentimientos supone de una u otra manera realizar elecciones subjetivas o sesgadas.

En mitad de este nuevo debate surge la polémica con la célebre alternativa desarrollada por OpenAI perteneciente a Elon Musk. El chatbot en cuestión, GPT-3, –es decir un sistema de diálogo, capaz de engañarnos y hacernos pensar que hablamos con un humano–, habría sido usado por estudiantes universitarios para obtener mejores resultados en pruebas escritas donde examinaban sus conocimientos y habilidades. Este hallazgo y como dicha IA ofrecería determinadas soluciones “sesgadas” ha levantado no pocas reticencias en cuanto a su uso, ya que son los profesionales del futuro, que ocuparán puestos de relevancia como juristas, ingenieros o médicos los primeros que no han podido reprimir la fuerza del “lado oscuro” y echar mano de estas avanzadas triquiñuelas tecnológicas.

Por todo ello, desde hace un tiempo surgen cada vez más voces cuestionando estas herramientas e intentando regularlas. No han sido pocos los casos en los que se ha visto como los condicionantes, –es decir cómo piensa–, la persona encargada de la programación de una IA ha transferido su particular percepción de la sociedad a la nueva aplicación que desarrollaba, siendo esta al final un reflejo de su ideología y preferencias.

Este nuevo debate del siglo XXI se plantea en un contexto donde las IA, sin que nos demos cuenta ya han penetrado en muchas capas de nuestra vida cotidiana. La lista es casi interminable: Los robots sociales o chatbots de asistencia sanitaria, asistentes virtuales como la conocida Alexa o los de los automóviles, así como los algoritmos que se usan durante los procesos de reclutamiento para empleos, la admisión en las universidades y la difusión de noticias, son ya parte de nuestra sociedad.

Estamos comenzando a escuchar con bastante asiduidad como Inteligencias Artificiales están despidiendo a trabajadores. Los algoritmos y programas informáticos basados en IA ya son los responsables de miles de personas sin empleo (y también de contrataciones) en todo el mundo. En España se usan desde hace tiempo para medir la productividad de los empleados y para fichar a los candidatos considerados como más idóneos. Puede resultar en apariencia un método más neutral, pero sin embargo puede ser una extrapolación potenciada del pensamiento e ideas de sus creadores.

Casos como la diferenciación por sexo en las bases de datos de las grandes compañías está a la orden del día, se almacenan y procesan cantidades gigantescas de información personal a causa de las transacciones comerciales e interacción entre internautas, se etiqueta a los usuarios dependiendo de múltiples variables incluyendo, además del género, condición, raza, nivel económico, cultural y miles de otras consideraciones que analizan y categorizan la diversidad en la red.

Un pequeño apunte en todo esto maremágnum que es la IA! Es importante diferenciar lo que sería la verdadera Inteligencia Artificial de la Automatización. La primera se entiende como una herramienta que comienza con una serie de datos, a partir de los cuales es capaz de aprender para poco a poco ir sacando sus propias conclusiones de la forma más lógica posible; la segunda, sin embargo, únicamente haría el proceso de tratar la información que se le hubiera proporcionado para encontrar una solución, pero no sería capaz de ir más allá. Y lo peor es que muchas veces hablamos de IA cuando solo deberíamos hablar de procesos automatizados que trasladan de manera mecánica los deseos y aspiraciones (legítimas o no) de sus propietarios.

Por otro lado, dentro de la misma IA existen diferentes tipos según su función y razón de ser. Se pueden encuadrar en cuatro clases: Las que piensan como humanos, las cuales basarían su procesamiento en la emulación del pensamiento de una persona; las que actúan como humanos, que tendrían como misión reflejar las acciones humanas como podría ser la robótica; las que piensan racionalmente, que se establecerían como opciones para poder resolver cálculos y las que actúan racionalmente, que serían las que formarían partes de las entidades capaces de percibir un entorno para procesar dicha información y actuar en consecuencia.

Aún así, debemos de ser conscientes que todas las IAs sea cual sea su tipo, hasta la fecha no son más que la extrapolación de las personas que las diseñan y por tanto asumir que reflejan los beneficios pero también los males de nuestra sociedad.

Por esta razón existen iniciativas en todo el mundo encaminadas a hacer frente a este problema, como es el caso de Algorithm Watch quien mantiene un inventario global de organizaciones que han publicado principios éticos de IA. En España, por ejemplo, tenemos al think tank independiente We the Humans o la fundación OdiseIA que encamina sus acciones a promover un buen uso de estas nuevas tecnologías. Su visión parte de una conjugación entre la ética, la responsabilidad y la legislación vigente.

Siguiendo por este camino, encontramos el concepto de humanismo tecnológico, el cual busca un equilibro entre la ética y la innovación, en esta dirección están surgiendo interesantes propuestas como la que se presentará el próximo jueves 15 de diciembre de la mano de PREDIF en Madrid, donde se mostrará su proyecto de Inteligencia Artificial y servicios a las Personas con Discapacidad (IASPeD), bajo el lema “El impacto social de la inteligencia artificial: ética y exclusión social”.

Muchas veces se dice que las crisis, tanto económicas, tecnológicas o de mercado, no son más que un fiel reflejo de una falta de valores, lo que vendría a poner de manifiesto el comportamiento humano dentro de la misma sociedad en la que vivimos, por lo que es imperativo que trabajemos en una línea educativa en la que la IA nos conduzca a nueva generación tecnológica más social a través de una programación que refleje nuestras mejores intenciones como sociedad.

Comentar

0 Comentarios

    Más comentarios