Mientras que la verdadera inteligencia artificial todavía está muy lejos, varios sistemas que buscan copiar el modo de funcionamiento del cerebro humano —en forma de redes neuronales artificiales— ya son una realidad.
La computarización masiva está por venir, y los especialistas en robótica empiezan a preguntarse cómo asegurar que una máquina actúe conforme a la moral —una noción muy humana—.
Es como educar a los niños
Los conceptos de ética pueden ser planteados en una máquina de la misma manera en que los humanos crían a sus menores, opinan Mark Riddle y Brent Harrison, los científicos del Instituto de Tecnología de Georgia (EEUU).
Los investigadores ilustraron el método con dos sistemas integrados.
"Scheherazade", el proyecto anterior de Riddle, se basó en el crowdsourcing —una colaboración abierta distribuida— para acumular una multitud de escenarios de la vida cotidiana.
Cada historia —de las 213 seleccionadas para el estudio— gozaba de un entero árbol de decisiones posibles, formado con la ayuda de los participantes del proyecto. Los científicos atribuyeron a cada decisión un "nivel de moralidad" e hicieron que el nuevo algoritmo, denominado "Quijote", cumpliera la historia desde el inicio hasta el final con la condición de maximizar el rating final.
"Aunque es más rápido, robar es malo"
Este tipo de restricciones sería útil para los robots con funciones especializadas, según Riddle, pero está claro, que es solo el primer paso hacia una moralidad humana o las leyes de la robótica.