Los creadores de ChatGPT lanzaron una herramienta utilizada por 40.000 médicos y ahora advierten de las posibles consecuencias de sus errores

OpenAI anuncia que su modelo Whisper debe ser utilizado con cautela a tenor de los posibles errores

Medico Chatgpt
Facebook Twitter Flipboard E-mail
abelardo-gonzalez

Abelardo González

Editor - Tech

La inteligencia artificial se ha convertido en el sector que más interés acapara de la actualidad tecnológica por derecho propio. Tal es el impacto que tiene que, solo en las últimas horas, hemos conocido que Apple planea premiar con 1 millón de euros a cualquier persona capaz de encontrar una vulnerabilidad en su IA. Sin embargo, las últimas noticias relacionadas con Whisper, la herramienta de transcripción de OpenAI, se alejan mucho de ser positivas.

Como indica el portal The Verge en una reciente publicación, la propia OpenAI ha desaconsejado el uso de Whisper en "dominio de alto riesgo" como puede ser el campo de la salud, ya que la posibilidad de generar transcripciones erróneas puede ser muy perjudicial. A pesar de las advertencias, numerosas instituciones médicas han adoptado Whisper a través de una herramienta de Nabla, razón por la que la utilizan más de 30.000 médicos y hasta 40 sistemas de salud diferentes. Y, a la vista del alcance de estas cifras, la situación es de lo más preocupante.

Problemas de privacidad y frecuencia de alucinaciones

Como parte de su política de privacidad, Nabla elimina los audios originales. Por desgracia, esto imposibilita la comparación de las transcripciones generadas por la IA con las grabaciones originales. Así, la adopción de herramientas de transcripción en salud ha planteado varias preocupaciones relacionadas con la seguridad, ya que ya se han dado casos de padres que han rechazado compartir el audio de la consulta médica de sus hijos con una empresa tecnológica. Y, según los investigadores de la Universidad de Michigan, se han topado con errores en el 80% de las transcripciones de reuniones públicas.

Esto, sumado a otro estudio de las universidades de Cornell y Virginia que demostró que casi el 40% de las alucinaciones podrían ser dañinas o causar malentendidos, ha provocado que OpenAI salga a la palestra para informar de los problemas de su herramienta basada en inteligencia artificial. De hecho, varios críticos han instado a OpenAI a abordar de inmediato el problema, apuntando a que la empresa debería mejorar la fiabilidad de Whisper, especialmente en aquellos entornos en los que los errores pueden resultar peligrosos.

En 3DJuegos | Ni siquiera el mayor fabricante de chips del mundo es capaz de abastecer la demanda que genera la inteligencia artificial

En 3DJuegos | Apple ite en un documento interno filtrado que la IA del iPhone 16 está muy por detrás de otras opciones como ChatGPT

Imagen principal de Online Marketing (Unsplash)