Las actividades ejecutivas para alinear el uso responsable de la IA y el gobierno de la misma siguen siendo un trabajo en curso.
Solo el 17 % de los ejecutivos encuestados dijeron que sus empresas tienen documentada su posición sobre la IA responsable. Otro 50 % afirma que los compañeros de su equipo directivo tienen una postura sobre la IA responsable, pero que aún no está totalmente documentada.
Las cifras pueden reflejar que la normativa sigue evolucionando o la enorme complejidad del gobierno de la IA. Las organizaciones que busquen implementar la IA generativa a escala serán responsables de los estándares de uso ético, la explicabilidad, los métodos de detección de sesgos y otras consideraciones de uso responsable. Para muchos, se trata de un territorio inexplorado.
Los comités directivos de las organizaciones de IA pueden heredar en última instancia las tareas relacionadas con el arbitraje del uso responsable. Los resultados de nuestra encuesta muestran un movimiento definitivo hacia el nombramiento de comités directivos para proyectos de IA (40 %) y consejos de gobierno de datos (42 %) para informar sobre la preparación para la IA generativa.
Los encuestados cuyas empresas han documentado una posición sobre la IA responsable eran significativamente más propensos a tener un comité directivo de IA y un consejo de gobierno de datos. No se puede exagerar la importancia de este último, dado que la IA (generativa o de otro tipo) solo es tan buena como los datos que la impulsan.
Debido a la naturaleza crítica, compleja y matizada del trabajo, también preveemos que surgirá una nueva clase de profesionales del gobierno de la IA para ayudar a sus empresas a orquestar las operaciones de modelos de lenguaje de gran tamaño (LLMOps), la privacidad de los datos, la remediación de riesgos, el gobierno y otras preocupaciones de la IA generativa a escala. Ayudarán a sus organizaciones a ser pioneras en el arte de lo posible con la tecnología.