OpenAI propone un organismo internacional que regule la Inteligencia Artificial

OpenAI propone un organismo internacional que regule la Inteligencia Artificial

La inteligencia artificial está progresando a gran velocidad y los riesgos que plantea son lo suficientemente claros como para que los líderes de OpenAI consideren necesario establecer un organismo regulador internacional similar al que supervisa la energía nuclear, y hacerlo rápidamente. Sin embargo, no demasiado rápido.

En una entrada de blog de la compañía, Sam Altman, fundador de OpenAI, junto con el presidente Greg Brockman y el científico jefe Ilya Sutskever, explican que el ritmo de innovación en inteligencia artificial es tan rápido que no podemos depender únicamente de las autoridades existentes para controlar adecuadamente esta tecnología.

Un organismo para supervisar a la superinteligencia

Aunque el artículo tiene cierto tono de autocomplacencia, es evidente para cualquier observador imparcial que la tecnología, en particular el popular agente conversacional ChatGPT de OpenAI, representa tanto una amenaza única como un recurso invaluable.

Canal WhatsApp MarketNews

En general, el artículo no brinda muchos detalles ni compromisos, pero admite que la IA no se puede gestionar por sí sola:

Necesitamos cierto nivel de coordinación entre los principales esfuerzos de desarrollo para garantizar que el avance de la superinteligencia ocurra de manera segura y se integre sin problemas en la sociedad. Es probable que, en última instancia, necesitemos algo similar a una entidad reguladora internacional, como la Agencia Internacional de Energía Atómica (OIEA), para los esfuerzos en superinteligencia. Cualquier esfuerzo que supere cierto umbral de capacidad (o recursos computacionales) deberá estar sujeto a una autoridad internacional capaz de inspeccionar sistemas, exigir auditorías, evaluar el cumplimiento de normas de seguridad y establecer restricciones en términos de implementación y niveles de seguridad, entre otros aspectos.

El OIEA es el organismo oficial de las Naciones Unidas encargado de la colaboración internacional en temas relacionados con la energía nuclear, aunque, como es natural en organizaciones similares, podría necesitar fortalecerse. Un organismo de supervisión de la IA basado en este modelo no podría intervenir y desactivar a un actor malintencionado, pero sí podría establecer y monitorear estándares y acuerdos internacionales, al menos como punto de partida.

Las empresas no se autorregulan

La publicación de OpenAI destaca que el seguimiento de la capacidad computacional y el consumo de energía dedicados a la investigación en IA son algunas de las pocas medidas objetivas que se pueden y probablemente se deben informar y rastrear. Si bien puede resultar difícil determinar si la IA debe o no utilizarse para determinadas aplicaciones, puede ser útil establecer que los recursos destinados a ella deben ser monitoreados y auditados, al igual que ocurre en otras industrias. (La compañía sugirió que las empresas más pequeñas podrían quedar exentas para no obstaculizar el surgimiento de nuevas innovaciones).

Timnit Gebru, destacada investigadora y crítico de IA, expresó algo similar en una entrevista con The Guardian: “A menos que exista presión externa para hacer algo diferente, las empresas no se autorregularán. Necesitamos regulación y algo más que simplemente el deseo de obtener beneficios“.

OpenAI ha abrazado públicamente esta idea, lo cual ha generado consternación en muchos que esperaban que la compañía estuviera a la altura de su nombre. Sin embargo, como líder del mercado, también está solicitando acciones concretas en términos de gobernanza, más allá de las recientes audiencias donde los senadores pronuncian discursos de reelección que terminan con interrogantes.

Hacer algo al respecto

Aunque la propuesta podría resumirse como “quizás deberíamos hacer algo al respecto”, al menos sirve como punto de partida para iniciar una conversación en la industria, y demuestra el apoyo de la marca y proveedor de IA más grande del mundo a la adopción de medidas. La supervisión pública es sumamente necesaria, pero “aún no sabemos cómo diseñar un mecanismo de este tipo”.

Y aunque los líderes de la compañía declaran que están a favor de frenar el desarrollo, aún no tienen planes concretos para hacerlo, tanto porque no desean perder el enorme potencial “para mejorar nuestras sociedades” (sin mencionar los resultados obtenidos), como porque existe el riesgo de que actores malintencionados aceleren el proceso.

También te puede interesar: Como potenciar el Dropshipping y Ecommerce con ChatGPT (marketnews.pe)

Sigamos Conectados

Si te gusta el contenido de MarketNews.pe y quieres estar al día de las últimas novedades, consejos y oportunidades, te invitamos a que nos sigas en nuestras redes sociales. En Facebook, Twitter y LinkedIn compartimos información de valor, recursos gratuitos, casos de éxito y mucho más. Además, podrás interactuar con otros lectores y profesionales del sector, resolver tus dudas y ampliar tu red de contactos. No esperes más y únete a nuestra comunidad online. ¡Te esperamos!