En la encuesta más grande realizada hasta ahora entre investigadores de IA, la mayoría dice que existe riesgo de extinción debido al posible desarrollo de una IA sobrehumana.

Una encuesta realizada a los principales científicos de IA dice que hay un 5% de posibilidades de que la IA se vuelva incontrolable y acabe con la humanidad. Según los investigadores, antes de 2030, la IA avanzará considerablemente, será capaz de crear éxitos musicales y literarios. Si este escenario apocalíptico se cumple, al menos moriremos entretenidos.

La investigación realizada por expertos de Berkeley y la Universidad de Oxford, en diciembre, subraya que si bien las predicciones de estos expertos no deben considerarse verdades absolutas, ofrecen una pieza fundamental para comprender el panorama. Estos investigadores, con un profundo conocimiento tecnológico y de la evolución histórica de la IA, están bien posicionados para hacer conjeturas fundamentadas sobre su futuro.

La encuesta pidió a los participantes que compartieran sus opiniones sobre posibles cronogramas para futuros hitos tecnológicos de la IA, así como las consecuencias sociales -buenas o malas- de esos logros. El cuestionario fue dirigido a 2.778 científicos especialistas en IA.

El estudio destaca el peligro percibido en torno a la creación de una poderosa inteligencia artificial por parte de los principales investigadores del mundo. Aproximadamente el 68 % de los investigadores ven más factible un avance positivo sobrehumano en la IA, aunque la mitad de estos optimistas aún consideran una probabilidad distinta de cero de una posible extinción humana.También declara que existe consenso en priorizar la investigación para mitigar los riesgos de la IA.

Es una señal importante de que a la mayoría de los investigadores de IA no les parece muy inverosímil que la IA avanzada destruya a la humanidad

«Es una señal importante de que a la mayoría de los investigadores de IA no les parece muy inverosímil que la IA avanzada destruya a la humanidad», dice Katja Grace del Machine Intelligence Research Institute en California, autora del artículo. «Creo que esta creencia general en un riesgo no minúsculo es mucho más reveladora que el porcentaje de riesgo exacto«.