La creación de la superinteligencia artificial acarrea el grave problema de que las máquinas puedan escapar del control humano y actuar con 'voluntad' propia. De ser así, podrían acabar con la humanidad en un segundo.
En una entrevista a la revista ‘Esquire’ el filósofo explicó por qué, desde su punto de vista, no hay que alegrarse mucho de los avances en la investigación de la superinteligencia artificial.
En la entrevista Nick Bostorm señala que en esferas como la logística, el reconocimiento automático del habla y la búsqueda de información, las máquinas ya superan al ser humano, pero “aún no disponen del razonamiento como tal” y la creación de la superinteligencia artificial es todavía una cuestión de tiempo.
Según mantiene el científico, la aparición de la superinteligencia artificial acarrea otro problema relacionado con su posible rechazo a seguir estando bajo el control de la humanidad.
Nick Bostorm asegura que, a diferencia de los típicos guiones de las películas de Hollywood, en los que las máquinas con la superinteligencia artificial se ven derrotadas por seres humanos con habilidades especiales, en la vida real esto sería poco probable.
Las máquinas podrían acabar con la humanidad en solo un segundo y “la Tierra se convertiría en un ordenador que se pasaría mil millones de años haciendo cálculos incomprensibles“.
Dado que resulta imposible impedir que los estudios sobre la superinteligencia artificial continúen, Nick Bostorm cree que es necesario “centrarse en el trabajo que pueda reducir los riesgos que supone la superinteligencia artificial incontrolada antes de que sea creada”.
Para conseguirlo, se debe “fundar una comunidad profesional que una a personas de negocios, científicos e investigadores”, una comunidad que “dirija también los estudios científicos en la dirección segura y elabore medios de control sobre sus resultados”, señaló el famoso científico.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.