Los países del G7 han acordado un código de conducta para los desarrolladores de sistemas de inteligencia artificial, así como "principios" que deben guiar el desarrollo, implementación y uso de esta tecnología. El objetivo del acuerdo es aportar "seguridad y confianza en todo el mundo en la inteligencia artificial" y establecer una guía "voluntaria" a empresas y organizaciones que desarrollan los sistemas más avanzados, dice el documento. Las orientaciones pactadas en el G7 se centran principalmente en pedir a los desarrolladores tomar las medidas necesarias para mitigar los riesgos derivados de la inteligencia artificial, así como el "mal uso" de los sistemas y establecer marcos de gobernanza, entre otros.
El documento pide a los desarrolladores, ya sean públicos o privados, "tomar las medidas adecuadas" para "mitigar los riesgos a lo largo de todo el ciclo de vida" del sistema, así como evitar el "mal uso" de éstos una vez se ponen en el mercado. Por ello, reclama "mecanismos para informar sobre vulnerabilidades" en caso de que sea necesario y que éstos sean accesibles a "varios actores".
El código de conducta también incluye un marco de gobernanza, invertir e implementar controles de seguridad
El texto pactado en el G7 también pide asegurar "suficiente transparencia" de los sistemas para "incrementar la rendición de cuentas" y compartir información de forma "responsable" con el resto de actores, incluida la industria, los gobiernos, la sociedad civil y los académicos .
El código de conducta también incluye un marco de gobernanza, invertir e implementar controles de seguridad, desarrollar mecanismos de autentificación del contenido y apuesta por "priorizar el desarrollo de sistemas de inteligencia artificial para hacer frente a los principales retos mundiales", como por ejemplo la crisis climática.