Claves para no fallar al elegir tu máster en Inteligencia Artificial
La 79º Asamblea General de la ONU situó a la Inteligencia Artificial (IA) como uno de sus claros protagonistas. Uno de los riesgos a los que se enfrenta la IA en estos momentos es que sea capitalizada por unos pocos y que se aleje de su objetivo de ayudar y fomentar el desarrollo de la sociedad.
Esta es una máxima que desde Naciones Unidas han querido priorizar y poner sobre la mesa. Para ello han creado un órgano consultivo de la inteligencia artificial: el High Level Advisory Body on Artificial Intelligence (HLAB-AI). Un órgano asesor de alto nivel en inteligencia artificial formado por 39 líderes destacados de la IA de 33 países.
“Para las economías en desarrollo, la inteligencia artificial abre la posibilidad de superar tecnologías obsoletas y servir directamente a las personas que más lo necesitan. Pero el potencial de transformación positiva que ofrece resulta todavía difícil de asimilar y, sin entrar a considerar posibles escenarios catastróficos, ya ha quedado claro que el uso malintencionado de la inteligencia artificial (IA) puede socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la democracia”, señaló Antonio Garrigues.
Joe Biden fue muy claro en este sentido: «Puede que no haya mayor prueba de nuestro liderazgo que cómo abordamos la inteligencia artificial». Según el mandatario, en los próximos diez años se producirán más avances tecnológicos que en los últimos cincuenta.
Un mayor optimismo estaba presente en el discurso del presidente del gobierno Pedro Sánchez. Comparó la expansión de la IA con el descubrimiento de la escritura, la invención de la imprenta o la electricidad, que también generaron temor y desconfianza en sus inicios.
En los últimos meses ya se vienen estableciendo leyes para regular los impactos de la IA. El pasado mes de agosto ya entró en vigor la primera ley de inteligencia artificial del mundo. Esta normativa pretende mitigar los posibles riesgos de la IA, además de potenciar sus beneficios sociales y económicos, pero sin que esto suponga un obstáculo para la innovación.
Algunos sistemas de IA o usos de la IA están prohibidos porque contradicen los valores de la UE. Entre ellos se encuentran aquellos que vulneran el derecho a la no discriminación, la protección de datos y la privacidad. Se incluyen también técnicas subliminales que distorsionan el comportamiento de una persona de manera que pueda causarle daños físicos o psicológicos a él o a otros.
En el informe “Governing AI for Humanity”, la nueva agencia HLAB-IA expone siete medidas fundamentales orientadas a garantizar el desarrollo de una IA inclusiva, que fomente el progreso y la protección de los derechos humanos.
El organismo propone la creación de un panel internacional e independiente sobre inteligencia artificial. Estaría compuesto por expertos de diferentes disciplinas, que colaborarían de forma voluntaria y a título personal. Este panel se encargaría de publicar un informe anual en el que se analicen las oportunidades, riesgos y tendencias relacionados con la IA. Además, identificaría las áreas en las que se necesita más investigación y aquellas donde la IA podría ayudar a alcanzar los Objetivos de Desarrollo Sostenible (ODS).
Esta medida plantea la organización de reuniones intergubernamentales y con múltiples partes interesadas. Entre ellas estarían empresas tecnológicas, usuarios y entidades nacionales. El objetivo es construir un marco regulatorio común que proteja los derechos humanos. A través de estos encuentros se buscará compartir las mejores prácticas en gobernanza de la IA, fomentar el desarrollo ético y promover acuerdos sólidos sobre su aplicación.
El informe sugiere conectar a representantes de organizaciones regulatorias, empresas tecnológicas y sociedad civil. La finalidad es garantizar que los sistemas de IA sean técnicamente interoperables entre países. Para lograrlo, se desarrollaría un registro con definiciones y normas aplicables que sirva para medir y evaluar estos sistemas. También se evaluarán las normas existentes, se debatirán nuevas propuestas y se identificarán vacíos regulatorios.
Se propone impulsar una red mundial que facilite el acceso a recursos clave como formación, datos y tecnologías. Esta red permitiría a investigadores y emprendedores sociales acceder a desarrollos de IA, especialmente en regiones o comunidades con menos recursos. También apoyaría la colaboración entre redes locales y globales, y reforzaría las capacidades de gobernanza de los funcionarios públicos. Todo ello con el objetivo de fomentar un desarrollo tecnológico alineado con los derechos humanos.
El fondo serviría para cubrir carencias en capacidades y fomentar la colaboración internacional. Su misión sería mitigar la brecha tecnológica existente. Estaría gestionado por una estructura de gobierno independiente y contaría con financiación tanto pública como privada. Su enfoque sería facilitar el acceso a tecnologías habilitadoras de IA, con el fin de empoderar a los territorios a nivel local y avanzar hacia los ODS.
Esta medida busca establecer una pauta común para la definición, administración y gestión de los datos. El propósito es garantizar la transparencia en el uso de datos en los sistemas de IA. También se pretende fomentar la rendición de cuentas y promover principios compartidos sobre cómo deben manejarse los datos a nivel internacional.
Por último, el informe plantea la creación de una oficina especializada en inteligencia artificial dentro de la Secretaría de las Naciones Unidas. Esta agencia sería la encargada de apoyar y coordinar la puesta en marcha de las medidas anteriores. Su función sería operativa y estratégica, asegurando que las propuestas se implementen de forma efectiva y colaborativa a nivel global.
Las Naciones Unidas no son la única entidad que ha alertado sobre la necesidad de tomar medidas. Un estudio del Institute for Business Value de IBM considera urgente contar con un nuevo tipo de liderazgo tecnológico en la era de la IA Generativa.
También lo hacen organizaciones sin ánimo de lucro como el Consejo de Políticas Económicas (CEP), que advierten sobre el avance hacia aplicaciones capaces de autoaprender y ejecutar tareas más allá de lo previsto inicialmente. A este fenómeno se le conoce como Inteligencia Artificial General.
El objetivo de estas siete claves es trazar un marco ético, social y humano para el desarrollo de la inteligencia artificial. Un marco que permita aprovechar todo su potencial sin ignorar los riesgos que implica.
En MIOTI, todos aquellos interesados en conocer más sobre IA cuentan con diferentes programas, como el Máster en Inteligencia Artificial.
El Máster en Data Science y Big Data, donde aprenderás desde el preprocesamiento de datos hasta los algoritmos de analítica predictiva. Y el Máster en Inteligencia Artificial Avanzada, donde aplicarás las últimas técnicas de Machine Learning y Deep Learning, fundamentales para el análisis predictivo, el reconocimiento de imágenes, voz, textos y la inteligencia artificial generativa.