Al leer las noticias, parece que hemos entrado en un episodio de la Dimensión Desconocida, donde cosas que antes eran imposibles, o al menos muy difíciles, ahora se logran con facilidad gracias a la IA.
Usada de manera responsable, la IA puede lograr cosas extraordinarias, como las tecnologías Digital Twin, que permiten simulaciones hiperrealistas y modelado de escenarios reales para mejorar la seguridad en la fabricación de aviones; predicciones para prevenir la mortalidad materna; digitalización de archivos manuscritos únicos para compartir más información; demostraciones de ciencia del subsuelo que ayudan en la creación de políticas; y descubrimiento de materiales más eficientes para baterías en la ciencia verde, entre otros.
Sin embargo, la IA sin un marco de responsabilidad puede llevar a problemas que es mejor evitar, como han señalado recientes investigaciones. Con límites claros, normativas y principios adecuados, la IA tiene el potencial de acelerar la investigación, impulsar la innovación y proteger su uso de malas prácticas, como han advertido los expertos de la Universidad George Washington.
Uno de los desafíos para establecer y mantener prácticas responsables en IA es la falta de una definición estandarizada de lo que constituye "IA responsable". ¿Incluye el aprendizaje automático? ¿Qué pasa con los esfuerzos de fusión y deduplicación de datos? ¿O simplemente con los scripts básicos? La amplitud de las definiciones de IA hace difícil establecer qué prácticas son realmente responsables.
Uno de los desafíos para establecer y mantener prácticas responsables en IA es la falta de una definición estandarizada de lo que constituye "IA responsable". ¿Incluye el aprendizaje automático? ¿Qué pasa con los esfuerzos de fusión y deduplicación de datos? ¿O simplemente con los scripts básicos? La amplitud de las definiciones de IA hace difícil establecer qué prácticas son realmente responsables.
En su artículo 3.1, la Ley de la UE define la IA como
«un sistema basado en máquinas que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales (2024)».
La UNESCO define la IA como
«tecnología que genera automáticamente contenidos en respuesta a instrucciones escritas en interfaces conversacionales de lenguaje natural. En lugar de limitarse a curar las páginas web existentes, al basarse en los contenidos existentes, GenAI produce realmente nuevos contenidos. El contenido puede aparecer en formatos que abarcan todas las representaciones simbólicas del pensamiento humano: textos escritos en lenguaje natural, imágenes (incluidas fotografías, pinturas digitales y dibujos animados), vídeos, música y código de software. GenAI se entrena a partir de datos recogidos en páginas web, conversaciones en redes sociales y otros medios en línea. Genera su contenido analizando estadísticamente las distribuciones de palabras, píxeles u otros elementos en los datos que ha ingerido e identificando y repitiendo patrones comunes (por ejemplo, qué palabras siguen típicamente a qué otras palabras) (2023, p.8)».
El Servicio de Investigación del Congreso de Estados Unidos define la IA como
«sistemas computarizados que funcionan y reaccionan de maneras que comúnmente se piensa que requieren inteligencia...[y] se refiere a modelos de aprendizaje automático (ML) desarrollados a través del entrenamiento en grandes volúmenes de datos con el fin de generar contenido (2023)».
Hay muchas definiciones de IA fuera de estas, y muchas que se escribieron antes de los Modelos de Lenguaje Grande (LLM) que vemos más utilizados hoy en día, pero la mayoría de las definiciones al menos están de acuerdo en que la IA es un modelo no supervisado entrenado en grandes cantidades de datos web, en su mayoría abiertos, utilizado para generar texto e imágenes basadas en predicciones estadísticas a partir de sus aprendizajes.
Además de las definiciones, la IA es la nueva palabra de moda; muchos productos afirman usar IA cuando puede que no la estén usando realmente. Esta mala etiquetación dificulta la aplicación de una IA ética y responsable, y complica que los consumidores identifiquen correctamente qué es IA y tomen precauciones al utilizarla. Con nuevas regulaciones como la Ley de IA de la UE, es crucial tener un etiquetado preciso de lo que es y lo que genera IA. Esto requiere una definición estándar para ayudar a las empresas y usuarios a identificar y tratar la IA de manera responsable.
Para garantizar que EBSCO identifique y comunique adecuadamente las características del producto relacionadas con la IA, nos basaremos en fuentes autorizadas y definiremos la IA en EBSCO como: «un término general para procesos de aprendizaje automático en los que el modelo aprende de grandes volúmenes de información no estructurada, normalmente de la web abierta, para predecir cómo responder a las necesidades del usuario.»
En esta serie, exploraremos los principios de IA que EBSCO aplica, dónde los usamos y cómo apoyamos la investigación responsable con IA.
Siga con nosotros mientras profundizamos en los seis principios de la IA en los próximos meses:
- Calidad: Uso de datos y recursos fiables, basados en investigación humana.
- Transparencia: Etiquetado claro de las características de la IA y explicación para decisiones informadas.
- Alfabetización informacional: Educación sobre la IA responsable y evaluación de resultados.
- Igualdad: Datos diversos y accesibles, sin importar experiencia o lengua.
- Valor para el usuario final: IA centrada en el usuario para una investigación más eficaz.
- Integridad de los datos: Cumplimiento con políticas de protección de privacidad y derechos.