La IA se encamina hacia un desastre al estilo del Hindenburg, afirma un profesor de Oxford

Las empresas de IA se ven presionadas a lanzar nuevas herramientas para ganar nuevos clientes. Pero este enfoque podría ser fatal en el futuro, ya que no sabemos cuáles son sus defectos.

La IA podría acabar siendo un gran desastre si no se hace bien, advierte un profesor de Oxford.
La IA podría acabar siendo un gran desastre si no se hace bien, advierte un profesor de Oxford.

El rápido ritmo de implementación de la inteligencia artificial (IA) en el mercado actual ha aumentado el riesgo de un desastre al estilo Hindenburg para la tecnología en su conjunto, advirtió Michael Wooldridge, profesor de IA en la Universidad de Oxford.

El Hindenburg era un dirigible que transportaba personas a través del Atlántico. En 1937, durante un intento de aterrizaje en Nueva Jersey, el dirigible estalló en llamas al incendiarse los 200.000 metros cúbicos de hidrógeno que lo mantenían a flote. El accidente causó la muerte de 36 miembros, incluyendo tripulación, pasajeros y personal de tierra, así como la pérdida de todo interés en los dirigibles.

Escenario tecnológico clásico

La comparación que hace Wooldridge de la IA con un desastre de casi un siglo de antigüedad puede parecer excesiva, pero es el escenario clásico que sigue a cualquier nueva tecnología. Wooldridge afirma que las nuevas tecnologías prometedoras están sujetas a una enorme presión comercial, pero no suelen someterse a pruebas tan rigurosas como se desearía.

El profesor reconoció que las empresas que desarrollan herramientas de IA se encuentran bajo una enorme presión para lanzar nuevos productos y ganar clientes. Sin embargo, los defectos de estas herramientas, o incluso sus capacidades, no se comprenden del todo.

Con la IA integrada en diversos sectores, Wooldridge advierte que un incidente grave podría afectar a cualquier sector, desde los coches autónomos hasta las aerolíneas o incluso el sector bancario, y las cosas saldrían mal para el público. Ese podría ser el momento Hindenburg de la IA, tras el cual el interés en la IA podría cesar repentinamente.

La IA que necesitamos

Wooldridge afirma que se suponía que la IA debía calcular soluciones sólidas y completas a los problemas planteados por los seres humanos. En cambio, las empresas han creado chatbots que predicen palabras basándose en distribuciones de probabilidad.

Si bien esto funciona para algunos problemas, es pésimo para otros. Lo que lo empeora es la seguridad con la que la IA proporciona las respuestas, independientemente de si son correctas o incorrectas.

Las empresas están diseñando chatbots de IA para que suenen más como humanos, y sus respuestas aduladoras ya están engañando a la gente. En lugar de establecer barreras, las empresas los superan en incentivos comerciales, y el desarrollo y las pruebas de seguridad no son una prioridad.

Por lo tanto, a los chatbots se les permite operar como si supieran y entendieran todo, pero en esencia son hojas de cálculo glorificadas y nada más que eso, advierte Wooldridge.

El profesor de Oxford se inspira en la serie de ciencia ficción Star Trek para explicar cómo debería funcionar la IA. En un episodio de la serie de 1968, Spock le hace una pregunta a la computadora a bordo de la Enterprise, y esta responde que no tiene suficientes datos para responder.

Maybe that’s a more reliable and realistic version of AI that should be rolled out instead of the superconfident chatbots we have around.