Todos presentan esta herramienta informática casi como una panacea. Se sabe que la inteligencia artificial se utiliza en distintos campos como las ciencias de la computación, los sistemas de transporte autónomos, la robótica, las finanzas, la salud y el mundo de los videojuegos y las comunicaciones.
En palabras simples, la IA se refiere a sistemas o máquinas que llegaron para reemplazar las actividades que realizan los seres humanos. Se habla de que los riesgos fundamentales son tres: accidentes, malos usos y carreras de armas. Por ahora, los daños que pueden causar son limitados, aunque ya ha habido accidentes fatales con coches autónomos.
Pero de lo que no se sabe, se desconoce o se oculta, es el motivo por el que OpenAI prohíbe a sus empleados advertir a los reguladores sobre los “graves riesgos” que representan sus sistemas de inteligencia artificial (IA).
Denunciantes anónimos presentaron una demanda ante la Comisión de Bolsa y Valores de Estados Unidos (SEC) en la que acusan a OpenAI de violar la ley al exigir que sus empleados firmen contratos excesivamente restrictivos. Esta situación tomó estado público porque se difundió en una nota publicada por The Washington Post.
Este periódico estadounidense es el de mayor circulación dentro del área metropolitana de Washington D.C., y que cuenta con una gran audiencia nacional, pudo acceder a la misiva dirigida al presidente de la SEC, Gary Gensler. En la misma, solicitan al organismo que investigue los acuerdos de indemnización, no desprestigio y confidencialidad impuestos por la compañía. Califican estas políticas como “ilegales” y “excesivamente restrictivas”.
En ella denuncian que los convenios de la startup “prohibían y desalentaban tanto a los empleados como a los inversores para comunicar a las autoridades violaciones de valores; obligaban a los trabajadores a renunciar a sus derechos, incentivos y compensaciones para denunciantes, y exigían a los colaboradores que notificaran a la empresa sobre cualquier comunicación con los reguladores gubernamentales”.
Startup es una empresa emergente digital que tiene un gran potencial de crecimiento. La diferencia entre una empresa de nueva creación, de una startup es que estas últimas están centradas en crecimientos exponenciales. Mientras que una empresa habitual puede tener un ambicioso objetivo de crecer un 10% anual, una startup suele pretender multiplicar su negocio entre tres y cinco veces al año.
Los abogados firmantes del documento afirman que presentaron evidencia que prueba que los pactos de confidencialidad de OpenAI violan la ley “al exigir que sus empleados firmen contratos ilegalmente restrictivos para obtener un puesto, pagos de compensación y otras contraprestaciones financieras”. También se indica que la compañía detrás de ChatGPT obliga a su personal a renunciar al derecho de recibir una indemnización por denuncia de irregularidades.
El documento no sólo apunta a OpenAI, sino que propone que todas las empresas de IA, se comprometan a no castigar a los empleados que denuncien sus actividades. Y piden que todas las compañías establezcan formas «verificables» para que los trabajadores proporcionen información anónima sobre sus actividades. «Las protecciones ordinarias de los denunciantes son insuficientes porque se centran en la actividad ilegal, mientras que muchos de los riesgos que nos preocupan aún no están regulados», señala la carta. «Algunos de nosotros tememos razonablemente diversas formas de represalias, dada la historia de tales casos en toda la industria».
Sucede que, en realidad, el público subestima el ritmo al que se está desarrollando esta tecnología», de acuerdo con Jacob Hilton, investigador que trabajó anteriormente en aprendizaje por refuerzo en OpenAI y que dejó la empresa hace más de un año. Élsostiene que, aunque empresas como OpenAI se comprometen a desarrollar la IA de forma segura, no existe prácticamente supervisión capaz de poder garantizar que así sea. «Las protecciones que pedimos están pensadas para aplicarse a todas las empresas de IA de vanguardia, no solo a OpenAI», afirmo.
Copia de la carta que se envió al periódico también fue remitida al Congreso. En este caso, a Chuck Grassley, senador republicano de Iowa.
Dicho funcionario manifestó que “las políticas y prácticas de OpenAI parecen tener un efecto amedrentador sobre el derecho de los denunciantes a hablar y recibir la compensación debida por sus divulgaciones. Monitorear y mitigar las amenazas que plantea la IA es parte de la responsabilidad constitucional del Congreso y los denunciantes serán esenciales para resguardar la seguridad nacional”.
“Es esencial un debate riguroso sobre esta tecnología y ya hemos realizado cambios importantes en nuestro proceso de salida para eliminar las condiciones de no desprestigio», respondió Hannah Wong, portavoz de OpenAI por las denuncias.
Corrieron fuertes versiones el año anterior sobre un caso ocurrido durante maniobras de entrenamiento de tropas del cuerpo de marines. Un dron programado con IA para destruir su objetivo, se volvió contra su operado, cuando este intentó modificar su recorrido al notar fallas. Obviamente todo fue desmentido rápidamente.
Mientras en Estados Unidos, líder en la lista de desarrolladores de IA (Con un 40 % de empresas de inteligencia artificial presentes en el país y más de 16 agencias del gobierno apoyando desde lo financiero) se hacen estos planteos, en muchos otros países se implementa su uso sin tener en cuenta la existencia de riesgos y sin siquiera conocer cuáles son.

