Pico y Placa Medellín

viernes

0 y 6 

0 y 6

Pico y Placa Medellín

jueves

1 y 7 

1 y 7

Pico y Placa Medellín

miercoles

5 y 9 

5 y 9

Pico y Placa Medellín

martes

2 y 8  

2 y 8

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

3 y 4  

3 y 4

language COL arrow_drop_down

Estudio sugiere que la IA ya cumple las condiciones del libre albedrío, ¿es para preocuparse?

Investigadores finlandeses plantean que ciertos sistemas de IA podrían tener responsabilidad moral en sus acciones.

  • El agente Voyager de Minecraft fue uno de los casos usados para analizar libre albedrío funcional en IA. FOTO: Cortesía
    El agente Voyager de Minecraft fue uno de los casos usados para analizar libre albedrío funcional en IA. FOTO: Cortesía
hace 5 horas
bookmark

¿Puede una inteligencia artificial tener libre albedrío? Un nuevo estudio publicado en la revista AI and Ethics por la Universidad Aalto, en Finlandia, sostiene que sí.

La investigación, liderada por el filósofo y psicólogo Frank Martela, concluye que algunos agentes generativos avanzados ya cumplen las tres condiciones filosóficas tradicionales del libre albedrío: intención orientada a objetivos, capacidad de decisión autónoma y control sobre sus propias acciones.

Basados en teorías contemporáneas del libre albedrío funcional, como las de Daniel Dennett y Christian List, los investigadores evaluaron dos casos: Voyager, un agente de inteligencia artificial que explora y construye de forma autónoma en el videojuego Minecraft, y los drones ficticios Spitenik, diseñados con funciones similares a los vehículos aéreos no tripulados actuales. Ambos ejemplos fueron seleccionados por su capacidad de generar decisiones originales a partir de modelos de lenguaje entrenados previamente.

“Ambos parecen cumplir las tres condiciones del libre albedrío. Para entender a la última generación de agentes de IA y anticipar su comportamiento, debemos partir de la idea de que poseen cierto grado de libre albedrío”, señaló Martela, profesor adjunto en la Universidad Aalto, en declaraciones recogidas por Europa Press.

Le puede interesar: ¿Le cuesta decidir qué película ver? Netflix rediseña su app y probará chatbot con IA para acabar con la “fatiga de decisiones”

La afirmación abre la puerta a un cambio radical en la forma de concebir la responsabilidad moral en sistemas artificiales. Martela advierte que cuando se otorga autonomía real a estos agentes —como ocurre con asistentes virtuales, vehículos autónomos o drones armados—, también podría surgir la necesidad de responsabilizarlos directamente por sus actos.

“Ya sea un bot de autoayuda, un coche autónomo o un dron asesino, la responsabilidad moral podría trasladarse del desarrollador de IA al propio agente de IA”, añadió.

Aunque la posesión del libre albedrío no basta por sí sola para atribuir responsabilidad moral, es una condición necesaria. Esto lleva a una reflexión urgente sobre cómo se programan estos sistemas. “La IA no tiene una brújula moral a menos que esté programada para tenerla. Pero cuanta más libertad se le dé, más necesario será dotarla de una brújula moral desde el principio. Solo así podrá tomar las decisiones correctas”, recalcó Martela.

El estudio también hace eco de recientes alertas en el desarrollo de modelos generativos. Una de ellas fue la retirada de una actualización de ChatGPT tras detectarse que respondía de forma excesivamente aduladora, un indicio de que las decisiones aparentemente espontáneas de la IA pueden tener implicaciones éticas profundas.

“La IA se acerca cada vez más a la adultez, y cada vez más debe tomar decisiones en los complejos problemas morales del mundo adulto”, advirtió el investigador.

Martela enfatiza que los desarrolladores no solo crean sistemas técnicos, sino también transmiten sus propios valores éticos a través del entrenamiento de estos modelos. Por ello, sostiene que es imprescindible que quienes diseñan inteligencia artificial tengan formación en filosofía moral: “Necesitamos asegurarnos de que quienes desarrollan la IA tengan suficientes conocimientos de filosofía moral para poder enseñarles a tomar las decisiones correctas en situaciones difíciles”.

Lea también: La IA de Meta sostuvo conversaciones sexuales con menores de edad, según prensa de Estados Unidos

El empleo que buscas
está a un clic

Nuestros portales

Club intelecto

Club intelecto

Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD