Según ellos, los robots con inteligencia artificial funcionarán mejor si carecen de 'confianza en sí mismos' en sus acciones. Lo que quiere decir que las máquinas deben saber no solo cumplir las tareas necesarias sino también atender las tentativas de una persona de intervenir.
El concepto del juego es fácil: un robot con interruptor recibe una tarea que puede ser anulada por una persona en cualquier momento al pulsar una tecla. Sin embargo, si el robot lo considera irracional, bloquea las acciones del operador y sigue funcionando. La tarea principal de la máquina es actuar con el máximo beneficio para el usuario.
Los expertos teorizan que la estrategia óptima para la máquina es tener en cuenta las tentativas del usuario de parar el proceso, informarlo de que el robot quiere seguirlo y esperar la respuesta del usuario, demostrando así la 'falta de confianza' en sus propias acciones.
El problema estudiado no es abstracto. Por ejemplo, el vehículo no tripulado que lleva a un niño pequeño a la escuela no debería obedecer directamente a sus órdenes, así que el algoritmo debe saber distinguir intervenciones razonables de las obviamente erróneas.
Lea también: La inteligencia artificial 'adopta' el machismo y racismo de sus creadores
Los autores no detallan soluciones concretas para el problema pero señalan que desde el punto de vista de la seguridad "el sistema no debe llegar a extremos". En el futuro, los investigadores planean calcular la probabilidad de diferentes reacciones del robot cuando está al tanto de su utilidad personal.