Carpeta de justicia

LawAndTrends



A principios del verano pasado, un pequeño grupo de directivos y expertos en IA responsable de Microsoft comenzaron a usar una tecnología de OpenAI, similar a lo que el mundo conoce ahora como ChatGPT. Incluso para aquellos que habían trabajado de cerca con los desarrolladores de esta tecnología en OpenAI desde 2019, el avance parecía notable: las innovaciones en IA que esperábamos para 2033, llegarán en 2023.

Al mirar hacia atrás en la historia de nuestra industria, ciertos años destacan de forma decisiva. Por ejemplo, el uso de Internet se disparó con la popularidad del navegador en 1995, y el auge de los smartphones se aceleró en 2007 con el lanzamiento del iPhone. Ahora, es probable que 2023 marque un punto de inflexión crítico para la Inteligencia Artificial. Las oportunidades que ofrece son enormes. Y las responsabilidades de quienes desarrollamos esta tecnología son aún mayores. Necesitamos aprovechar este año decisivo no solo para lanzar nuevos avances de IA, sino para abordar de manera responsable y efectiva tanto las promesas como los peligros que se avecinan.

Las innovaciones en IA que esperábamos para 2033, llegarán en 2023.

Hay mucho en juego. La IA puede representar el avance tecnológico más importante de nuestra vida. Y aunque eso sea mucho decir, hay una buena razón para ello. La IA de vanguardia de hoy en día es una herramienta poderosa para promover el pensamiento crítico y estimular la expresión creativa. Permite buscar información y responde a preguntas. Puede ayudar a las personas a descubrir información gracias al análisis de datos y a través de procesos complejos. Acelera nuestra capacidad de expresar lo que aprendemos más rápido. Y, quizás, lo más importante es que hará todas estas cosas cada vez mejor durante los próximos meses y años.

He tenido la oportunidad durante muchos meses de usar tanto ChatGPT como los servicios internos de IA que se desarrollan dentro de Microsoft. Cada día aprendo nuevas formas de aprovechar al máximo la tecnología y, lo que es más importante, reflexiono sobre todo lo que nos deparará esta nueva era de la Inteligencia Artificial. Las preguntas se multiplican.

Por ejemplo, ¿Qué cambiará esto?

Con el tiempo, la respuesta corta es: casi todo. Porque estos avances en IA aumentan la capacidad de la humanidad como ninguna otra tecnología anterior para pensar, razonar, aprender y expresarnos. En efecto, la revolución industrial llega ahora al trabajo del conocimiento. Y éste es fundamental para todo.

Esto trae grandes oportunidades para mejorar el mundo. La IA impulsará la productividad y estimulará el crecimiento económico. Reducirá la monotonía en muchos trabajos y, cuando se utilice eficazmente, ayudará a las personas a ser más creativas en su entorno laboral y ejercerá un efecto positivo en sus vidas. La capacidad de descubrir nuevos conocimientos en grandes conjuntos de datos dará lugar a avances en la medicina, nuevas fronteras en la ciencia, mejoras en los negocios y defensas más sólidas para la ciberseguridad y la defensa nacional.

Necesitamos aprovechar este año decisivo no solo para lanzar nuevos avances de IA, sino para abordar de manera responsable y efectiva tanto las promesas como los peligros que se avecinan.

¿Serán buenos todos los cambios?

Si bien desearía que la respuesta fuera sí, desgraciadamente no es el caso. Como todas las tecnologías anteriores, algunas personas, comunidades y países convertirán este avance tanto en una herramienta como en un arma. Algunos usarán esta tecnología para explotar los defectos de la naturaleza humana: atacarán de manera deliberada a la sociedad con información falsa, socavarán la democracia y explorarán nuevas formas de hacer el mal. Desafortunadamente, las nuevas tecnologías suelen sacar lo mejor y lo peor de las personas.

Tal vez, por encima de todo, esto genera un profundo sentido de la responsabilidad. A un nivel, para todos nosotros; y, a otro aún mayor, para quienes participamos en el desarrollo y despliegue de la propia tecnología.

Hay días en los que soy optimista y momentos en los que soy pesimista sobre cómo la humanidad sacará partido de la IA. Lo más importante es que todos estemos preparados. Debemos adentrarnos en esta nueva era con entusiasmo por lo que promete, pero con los ojos bien abiertos y decididos a afrontar los inevitables escollos que también nos aguardan.

La buena noticia es que no empezamos desde cero.

En Microsoft llevamos trabajando desde 2017 para crear una infraestructura de IA responsable. Esta labor se ha desarrollado en paralelo en los ámbitos de la ciberseguridad, la privacidad y la seguridad digital. Está conectado a un marco de gestión de riesgos empresariales más amplio, que nos ha ayudado a crear los principios, políticas, procesos, herramientas y sistemas de gobernanza para una IA responsable. Por el camino, hemos trabajado y aprendido junto con los expertos en IA responsable de OpenAI, igualmente comprometidos.

Ahora, debemos volver a asumir esta responsabilidad y aprovechar los últimos seis años de trabajo para hacer aún más y avanzar todavía más rápido. Tanto en Microsoft como en OpenAI somos conscientes de que la tecnología seguirá evolucionando, y ambos estamos firmemente comprometidos con el progreso y la mejora constantes.

La base para una IA responsable

Durante seis años, Microsoft ha invertido en un programa interdepartamental para garantizar que nuestros sistemas de IA sean responsables desde el diseño. En 2017, lanzamos el Comité Aether con investigadores, ingenieros y expertos en políticas para centrarse en los problemas de IA responsable y ayudar a elaborar los Principios de IA que adoptamos en 2018. En 2019, creamos la Oficina de IA Responsable para coordinar la gobernanza y lanzamos la primera versión de nuestro Estándar de IA Responsable, un marco para traducir nuestros principios de alto nivel en una guía práctica para nuestros equipos de ingeniería. En 2021, describimos los componentes clave para hacer operativo este programa, incluida una estructura de gobierno ampliada, capacitación para equipar a nuestros profesionales con nuevas habilidades, y procesos y herramientas para respaldar la implementación. Y, en 2022, fortalecimos nuestro Estándar de IA Responsable y lo llevamos a su segunda versión. Esto establece cómo construiremos sistemas de IA a través de la utilización de enfoques prácticos para identificar, medir y mitigar los daños con anticipación, y garantizar que los controles estén diseñados en nuestros sistemas desde el principio.

Nuestro aprendizaje del diseño y la implementación de nuestro programa de IA responsable ha sido constante y fundamental. Una de las primeras cosas que hicimos en el verano de 2022 fue contratar a un equipo multidisciplinar para trabajar con OpenAI, aprovechar su investigación existente y evaluar cómo funcionaría la tecnología más reciente sin que se le aplicaran medidas de seguridad adicionales. Al igual que con todos los sistemas de IA, es importante abordar los esfuerzos de creación de productos con una línea de base inicial que proporcione una comprensión profunda no solo de las capacidades de una tecnología, sino también de sus limitaciones. Juntos identificamos algunos riesgos ya conocidos, como la capacidad de un modelo para generar contenidos que perpetúan estereotipos, así como la capacidad de la tecnología para elaborar respuestas convincentes, aunque incorrectas desde el punto de vista de la realidad. Como en cualquier faceta de la vida, la primera clave para resolver un problema es comprenderlo.

Gracias a estos conocimientos, los expertos en nuestro ecosistema de IA responsable tomaron medidas adicionales. Nuestros investigadores, expertos en políticas y equipos de ingeniería unieron fuerzas para estudiar los daños potenciales de la tecnología, crear canales de medición personalizados y perfeccionar estrategias de mitigación efectivas. Gran parte de este trabajo no tenía precedentes y, en parte, ponía en tela de juicio nuestra forma de pensar. Tanto en Microsoft como en OpenAI se avanzó rápidamente. Esto me hizo darme cuenta de la profundidad y amplitud de los conocimientos necesarios para avanzar en el estado del arte de la IA responsable, así como la creciente necesidad de nuevas normas, estándares y leyes.

Construir sobre esta base

De cara al futuro, haremos aún más. A medida que los modelos de IA sigan avanzando, sabemos que tendremos que abordar nuevos interrogantes y cuestiones pendientes de investigación, eliminar lagunas de medición y diseñar nuevas prácticas, patrones y herramientas. Abordaremos el camino que tenemos por delante con humildad y el compromiso de escuchar, aprender y mejorar cada día.

Pero nuestros propios esfuerzos y los de otras organizaciones afines no serán suficientes. Este momento transformador para la IA exige una perspectiva más amplia sobre el impacto de la tecnología, tanto positivo como negativo, y un diálogo mucho más amplio entre las partes interesadas. Necesitamos tener conversaciones significativas y comprometernos con la acción conjunta para definir los límites del futuro.

Creemos que debemos centrarnos en tres objetivos clave.

Primero, debemos asegurarnos de que la IA se desarrolle y utilice de manera responsable y ética. La historia nos ha enseñado que las tecnologías transformadoras como la IA requieren nuevas reglas. Los esfuerzos proactivos y de autorregulación de las empresas responsables ayudarán a allanar el camino para estas nuevas leyes, pero sabemos que no todas las organizaciones adoptarán prácticas responsables de forma voluntaria. Los países y las comunidades deberán utilizar procesos legislativos democráticos para participar en conversaciones de toda la sociedad sobre dónde se deben trazar los límites para garantizar que las personas estén protegidas por la ley. En nuestra opinión, las regulaciones efectivas de IA deben centrarse en las aplicaciones de mayor riesgo, ser duraderas y orientarse hacia los resultados frente a las tecnologías que avanzan con rapidez y las cambiantes expectativas sociales. Para generalizar los beneficios de la IA de la manera más amplia posible, los enfoques regulatorios  deberán ser interoperables y adaptables en todo el mundo, al igual que la propia IA.

En segundo lugar, debemos asegurarnos de que la IA promueva la competitividad internacional y la seguridad nacional. Si bien deseamos que no sea así, debemos reconocer que vivimos en un mundo fragmentado donde la superioridad tecnológica es fundamental para la competitividad internacional y la seguridad nacional. La IA es la próxima frontera de esa competencia. Con la combinación de OpenAI y Microsoft, y DeepMind dentro de Google, Estados Unidos está bien posicionado para mantener el liderazgo tecnológico. Otros ya han comenzado a invertir, y deberíamos buscar expandir esa posición entre otras naciones comprometidas con los valores democráticos. Pero también es importante reconocer que el tercer actor principal en esta próxima ola de IA es la Academia de Inteligencia Artificial de Beijing. Y, justo la semana pasada, la china Baidu se comprometió a desempeñar un rol de liderazgo en IA. Los Estados Unidos y las sociedades democráticas en general necesitarán múltiples y sólidos líderes tecnológicos que contribuyan al avance de la IA, así como un enfoque más amplio de las políticas públicas en temas como los datos, la infraestructura de supercomputación de la IA y el talento.

En tercer lugar, debemos asegurarnos de que la IA sirva a la sociedad de manera amplia, no limitada. La historia también ha demostrado que los avances tecnológicos significativos pueden superar la capacidad de adaptación de las personas y las instituciones. Necesitamos nuevas iniciativas para mantener el ritmo, de modo que la IA pueda empoderar a los trabajadores, los estudiantes puedan lograr mejores resultados educativos y las personas y organizaciones disfruten de un crecimiento económico justo e inclusivo. Nuestros colectivos más vulnerables, incluidos los niños, necesitarán más apoyo que nunca para prosperar en un mundo impulsado por la IA, y debemos asegurarnos de que esta próxima ola de innovación tecnológica mejore la salud mental y el bienestar de las personas, en lugar de erosionarlos gradualmente. Finalmente, la IA debe servir a las personas y al planeta. Puede desempeñar un papel fundamental para ayudar a abordar la crisis climática, incluso mediante el análisis de los resultados ambientales y el avance en el desarrollo de tecnología para la producción de energía limpia, al mismo tiempo que acelera la transición hacia la electricidad sin emisiones.

Si la IA va a servir realmente a la humanidad, el futuro exige que reunamos a informáticos y científicos de datos con personas de todos los ámbitos de la vida y con cualquier forma de pensar. Más que nunca, la tecnología necesita personas formadas en humanidades, ciencias sociales

Para hacer frente a este escenario, ampliaremos nuestros esfuerzos en políticas públicas para apoyar estos objetivos. Nos comprometemos a establecer nuevas alianzas y de mayor calado con la sociedad civil, el mundo académico, los gobiernos y la industria. Trabajando juntos, todos necesitamos entender mejor los problemas que deben abordarse y las soluciones con más posibilidades de éxito. Ha llegado el momento de colaborar en la definición de las reglas del juego de la IA.

Por último, a medida que he ido reflexionando sobre estos temas en los últimos meses, una y otra vez mi mente ha vuelto a algunos pensamientos que los conectan.

En primer lugar, estas cuestiones son demasiado importantes para dejarlas únicamente en manos de los tecnólogos. Y, por otra parte, no hay forma de anticipar, y mucho menos de abordar, estos avances sin implicar a las empresas tecnológicas en el proceso. Más que nunca, este trabajo requerirá una gran organización.

En segundo lugar, el futuro de la Inteligencia Artificial requiere un enfoque multidisciplinar. El sector tecnológico fue creado por ingenieros. Sin embargo, si la IA va a servir realmente a la humanidad, el futuro exige que reunamos a informáticos y científicos de datos con personas de todos los ámbitos de la vida y con cualquier forma de pensar. Más que nunca, la tecnología necesita personas formadas en humanidades, ciencias sociales y con una dosis de sentido común superior a la media.

Por último, y quizá lo más importante, la humildad nos ayudará más que la confianza en nosotros mismos. No faltarán personas con opiniones y predicciones. Muchas serán dignas de consideración. Pero, a menudo, me he encontrado pensando sobre todo en mi cita favorita de Walt Whitman -o de Ted Lasso, según se prefiera-: «Sé curioso, no juzgues.»

Estamos entrando en una nueva era. Tenemos que aprender juntos.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad