A medida que la tecnología ha ido avanzando, y los dispositivos que nos rodean (desde coches a relojes, pasando por refrigeradores y termostatos) han ido ganando en “inteligencia”, un temor ha ido creciendo en algunos seres humanos, que en dicho avance han visto también una amenaza. Se trata, claro, de la rebelión de las máquinas, un escenario apocalíptico en el que, alcanzado el umbral de la autoconsciencia, y desarrollados los mecanismos necesarios para “evolucionar”, las máquinas decidirían que “ya está bien” de permanecer sometidas a lo dictado por el ser humano, especialmente si eso atenta contra intereses mayores.Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
No es baladí que el padre del concepto de cerebro positrónico, Isaac Asimov, lo fuera también de las tres leyes de la robótica, que aún hoy en día siguen siendo empleadas no sólo en todo tipo de creaciones de ciencia ficción, sino en planteamientos teóricos de cómo deben comportarse las formas de vida artificial. Dicho conjunto de reglas, que son de obligado cumplimiento para cualquier robot (entiéndase como tal un dispositivo electrónico con capacidad de toma de decisiones), tienen la finalidad de proteger a los seres humanos, por encima de cualquier otro criterio:
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Sin embargo, y al igual que ocurre con el cerebro positrónico, un enfoque científico de los postulados de Asimov los deja un poco “cojos” y, consecuentemente, ese “seguro de vida” que supondría la aplicación de normas proteccionistas para con los seres vivos, queda en entredicho. Así, no es de extrañar que determinadas voces, algunas de ellas fuera de cualquier tipo de duda, planteen que existen riesgos. Tal es el caso de Stephen Hawking, que ha afirmado en un editorial en The Independent, que el desarrollo de la inteligencia artificial puede ser el mayor logro de la humanidad… pero también el último.
En dicho texto el científico menciona que los actuales sistemas de inteligencia artificial, y que tienen su máximo exponente en tecnologías como Siri, los coches sin conductor de Google y similares, es sólo la cabeza del iceberg. En sus propias palabras “Will all pale against what the coming decades will bring” es decir, que palidecerán en comparación con lo que veremos llegar en las próximas décadas.
Los enormes esfuerzos para avanzar en esa línea de investigación, prometen resultados muy efectivos a medio plazo, y están llamados a revolucionar (de nuevo) nuestra sociedad. Sin embargo, lo que más preocupa a Hawking: ver que gobiernos, grandes empresas y, en general, sociedad, no se están preparando para esa revolución que viene. Y en un párrafo, sin duda destacable, dice lo siguiente:
“Si una civilización alienígena superior (más evolucionada) nos enviase un mensaje diciendo “Llegaremos (a la Tierra) en unas décadas”, ¿simplemente responderíamos “Ok, avisad cuando lleguéis, dejaremos las luces encendidas? Probablemente no, pero eso es más o menos lo que está sucediendo con la inteligencia artificial”
Lo único que nos puede salvar de esos posibles riesgos es, claro, conocerlos, y para tal fin es necesario que se dediquen muchos esfuerzos de investigación (y económicos, claro está), tanto a las pocas entidades (tanto públicas como privadas) que ya están trabajando en este sentido, pues sólo identificando los riesgos y preparando una respuesta para los mismos, se podrá actuar llegado el momento.
Por ejemplo, un aspecto particularmente preocupante es el relacionado con los trabajos. A día de hoy, bastantes actividades que hasta hace poco tiempo eran llevadas a cabo por humanos, ahora están en manos de máquinas. Sin embargo, esto podría crecer de manera exponencial, a medida que la inteligencia de las máquinas fuera “superior”. E, incluso antes que eso, en el corto plazo, otro aspecto que preocupa seriamente a Hawking es el de las armas inteligentes:
“Los militares podrían estar pensando (y trabajando) en sistemas totalmente autónomos, capaces de elegir objetivos y destruirlos. Naciones Unidas y Derechos Humanos (Human Rights Watch) han planteado tratados para la prohibición (antes incluso de que existan) de este tipo de armas.”
Termina su editorial Hawking, enumerando las instituciones que sí que están trabajando en la identificación de los posibles riesgos (Cambridge Centre for the Study of Existential Risk, Future of Humanity Institute, Machine Intelligence Research Institute y Future of Life Institute), entidades todas sin ánimo de lucro. Y, al final, una invitación de la que todos somos partícipes: Todos nosotros debemos preguntarnos qué podemos hacer para mejorar las posibilidades de aprovechar las ventajas y, al tiempo, evitar los riesgos.
Quizá sea necesaria una conciencia global sobre dichos riesgos. A día de hoy, investigadores especializados en inteligencia artificial, afirman que la tecnología todavía está “muy verde”, lo que nos deja un margen de maniobra más que suficiente. Sin embargo, tampoco dudan en plantear la posibilidad de una rápida evolución de la misma, sobre todo si la investigación empieza a recibir más fondos, algo más que factible dadas las circunstancias actuales.
No es algo a pasar por alto, en cualquier caso. Los riesgos planteados por Hawking tienen una base muy sólida, así que más nos vale empezar a pensar en cómo adelantarnos a ellos. Cualquier descuido al respecto puede tener consecuencias inimaginables.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.