Deepfakes y responsabilidad digital: una campaña advierte sobre los riesgos del uso de inteligencia artificial
La AEPD impulsa una iniciativa para concientizar sobre el uso ético y legal de contenidos generados con IA
La AEPD impulsa una iniciativa para concientizar sobre el uso ético y legal de contenidos generados con IA
Las empresas comienzan a cubrir riesgos derivados de fallos y “alucinaciones” de sistemas automatizados
Un grupo internacional de investigadores desarrolló una nueva prueba académica para evaluar hasta dónde llegan realmente los sistemas de inteligencia artificial.
La compañía busca fortalecer su capacidad de procesamiento y centros de datos para el desarrollo de modelos de IA cada vez más avanzados, en medio de una creciente competencia global por la infraestructura que sustenta la nueva economía digital.
Nuevas plataformas permiten crear contenidos audiovisuales para clases, exposiciones y disertaciones
Estos sistemas presentan un fenómeno conocido como “fabulación” o “alucinación” de la inteligencia artificial: respuestas aparentemente correctas que en realidad contienen errores o información inexistente.
La acelerada incorporación de inteligencia artificial en los sistemas informáticos de uso cotidiano comienza a modificar la lógica tradicional del trabajo profesional.
Herramientas de inteligencia artificial capaces de transcribir, organizar y resumir conversaciones se están convirtiendo en aliados estratégicos.
El proyecto Hero Detect fue presentado dentro de programas gubernamentales del UK Government orientados a fortalecer el uso de inteligencia artificial en seguridad digital y regulación de contenidos en internet.
En el ámbito académico y tecnológico, esta práctica comienza a consolidarse con un nombre propio: ingeniería de prompts.