meta_inteligencia

meta_inteligencia

Tecnología

¿Qué ocurre cuando dos Inteligencias Artificiales entran en conflicto?

La Inteligencia Artificial formará parte de nuestro futuro, pero ¿qué ocurre cuando se enfrentan entre ellas? DeepMind, de Google, lo está experimentando.

9 febrero, 2017 14:18

Noticias relacionadas

La Inteligencia Artificial formará parte de nuestro futuro, pero ¿qué ocurre cuando se enfrentan entre ellas?

Llevamos años hablando de inteligencias artificiales, programas y máquinas capaces de tomar decisiones propias, de adaptarse al entorno y a situaciones y de saber elegir como lo haría un humano, o no.

Gran parte de la supuesta “Inteligencia Artificial” que tenemos hoy en día se basa en algoritmos de aprendizaje y no en una mente virtual realmente inteligente, sin embargo sí hay proyectos muy interesantes como los que lleva a cabo DeepMind, el departamento de Google.

El enfrentamiento entre Inteligencias Artificiales

En los últimos tiempos hemos visto alguno de los avances de DeepMind, como la IA que venció en el juego Go, pero también otros desarrollos como una reciente IA que estaba machacando a jugadores de Póker profesionales. La inteligencia artificial se puede aplicar a eso, a cosas más sencillas como controlar un sistema de iluminación, o a otras tareas más complicadas y sensibles. Sin embargo, ¿qué ocurrirá cuando dos IA no ‘piensen’ lo mismo y entren en un conflicto?

miedointeligenciasartificiales5

miedointeligenciasartificiales5

Eso es lo que han estado comprobando en los experimentos de DeepMind: al igual que dos personas pueden no estar de acuerdo en un tema y tomen decisiones distintas, los investigadores han estado estudiando cómo se comportan las Inteligencias Artificiales cuando se enfrentan a dilemas sociales.

Durante la investigación, que podéis leer en el blog de DeepMind y este documento, se experimentó con un escenario en el que dos IA debían recoger manzanas, todas las que pudiesen, con la peculiaridad de que podían “electrocutar” a la otra IA para bloquearla temporalmente.

Agresividad o cooperación, dependiendo de las reglas

Descubrieron que mientras quedaban muchas manzanas, las IA se centraban en cogerlas, pero cuando escaseaban, comenzaban a tirarse rayos. La cosa cambiaba cuando introducían una IA superior en el entorno, que directamente comenzaba a electrocutar al resto antes de recoger manzanas, como entendiendo que era mejor ser agresivo en todo momento para conseguir el objetivo de coger manzanas.

En otro experimento, dos inteligencias tenían que atrapar a una tercera en un entorno cerrado. Resulta que cuanto más avanzadas eran las IA, su intención de cooperar entre ellas para atrapar a la tercera era mayor.

Los investigadores sostienen que eso no significa que las Inteligencias Artificiales siempre quieran ser agresivas para conseguir el objetivo, sino que, ajustándose a las reglas que tenían, buscaban la estrategia más efectiva y, cuando más recursos tienen disponibles, más los aprovecha.

Por tanto, el resultado que sacan de todo ello es que, si queremos que las IA se comporten como deben en un futuro, y no nos veamos sometidos a una rebelión de las máquinas, hay que cuidar que las reglas bajo las que operan están perfectamente definidas.