La Inteligencia Artificial (IA) está avanzando más rápido de lo que podemos implementarla, por lo que el gobierno estadounidense ha llamado a las grandes tecnológicas a desarrollar estos proyectos de forma responsable. En respuesta, Apple se ha sumado a un acuerdo voluntario promovido por la Casa Blanca para asegurar que la IA no se utilice con fines dañinos para la sociedad.
Apple se une así a un selecto grupo de empresas que ya forman parte de este compromiso, incluyendo Google, Meta, Amazon, Microsoft, IBM y Nvidia. Este acuerdo, firmado en julio de 2023, busca establecer estándares comunes de seguridad y realizar pruebas rigurosas, tanto externas como internas, antes de lanzar nuevas actualizaciones al público.
La preocupación por un despliegue desordenado de la IA no es exclusiva de Estados Unidos. Gobiernos y organizaciones alrededor del mundo están acelerando marcos normativos para evitar una repetición de la adopción tardía que ocurrió con internet hace décadas. Uno de los esfuerzos más notables es el “Frontier Model Forum”, formado también en julio de 2023 por Google, OpenAI, Microsoft y Anthropic, que busca garantizar un desarrollo seguro y responsable de modelos avanzados de IA.
La disputa entre ética y negocio es evidente. Se estima que, para 2025, el valor de mercado de los software de IA podría alcanzar los 126 mil millones de dólares, según Statista. Este enorme potencial económico atrae a muchas empresas, pero también genera preocupación en la sociedad por posibles sustituciones laborales, especialmente en áreas creativas. Las huelgas históricas de actores y guionistas en Hollywood, y más recientemente de trabajadores de la industria de los videojuegos, reflejan estos temores.
A pesar de la rapidez con que se anuncian nuevas integraciones de IA, las empresas han comenzado a ser más cautelosas. Un ejemplo reciente es Apple, que ha decidido retrasar la disponibilidad de su IA, Apple Intelligence, en el nuevo iPhone 16, programando su lanzamiento para una actualización futura del sistema operativo IOS 18.1 en octubre. Microsoft también ha tomado medidas, renunciando a su puesto como observador en la junta directiva de OpenAI, reflejando la creciente cautela en la industria.
El compromiso de Apple con el gobierno de Estados Unidos para gestionar los riesgos de la IA representa un avance significativo hacia una mayor regulación en el sector tecnológico. Este movimiento no solo posiciona a Apple como un actor consciente de los desafíos éticos de la IA, sino que también puede influir en cómo otras empresas abordan la regulación y el desarrollo de la inteligencia artificial en el futuro. En un mundo cada vez más impulsado por la tecnología, la ética y la responsabilidad deben ser pilares fundamentales para asegurar un desarrollo beneficioso para toda la sociedad.