Los humanos solo pueden identificar el 73 % de los deepfakes de sonido generados por la IA
El 7 de julio, el Center for Open Science actualizó el proyecto OSF con nuevos datos relativos al reconocimiento de deepfakes de audio. El proyecto lleva en marcha desde principios de año, y estudia la capacidad de los seres humanos para detectar muestras del habla generadas por la IA. Para el proyecto se generaron 50 muestras deepfake del habla a partir de dos conjuntos de datos públicos en inglés y en mandarín.
Los deepfakes generados por la inteligencia artificial buscan imitar la voz o la apariencia de personas reales. A los 529 participantes se les pidió que distinguieran muestras reales de muestras falsas, pero lograron identificar las muestras falsas del habla solo en un 73% de los casos. Los intentos por enseñarles cómo reconocer deepfakes fueron poco efectivos.
Según los expertos del sector, los deepfakes constituyen la mayor preocupación en relación al uso de la inteligencia arti