1. Diagnóstico médico
Los chatbots de IA son buenos en muchas cosas, pero proporcionar diagnósticos médicos precisos no es una de ellas. Claro, es posible que no estén equivocados todo el tiempo, pero confiar en un chatbot para diagnosticar su enfermedad en lugar de en un médico es lo mismo que buscar en Google los síntomas.Un chatbot simplemente resumirá la información que ha extraído de Internet que podría o no ser cierta. Más importante aún, no conoce tu historial médico o tolerancia a ciertas sustancias y, por lo tanto, no puede juzgar qué tipo de tratamiento sería adecuado para ti.
2. Reseñas de productos
Un chatbot de IA puede enumerar fácilmente el precio y las especificaciones de un producto que podría interesarte, pero nunca puede dar una reseña del producto. ¿Por qué? Porque la revisión de un producto, por definición, incluye la opinión personal, la experiencia y el juicio del revisor.AI no tener la capacidad de ver, oler, tocar, saborear u oír, por lo que las afirmaciones que haría sobre un producto, cualquier producto, no solo tecnología, en su “revisión” serían falsas.
3. Aviso Legal
Es posible que veas titulares que digan que ChatGPT aprobó con éxito los exámenes de la facultad de derecho de EE. UU. y que los chatbots de IA están en camino de ingresar a nuestras salas de audiencias en los próximos años. Esto debería ser impactante, pero una búsqueda rápida te diría que en realidad se ha estado tratando de incorporar la IA en el sistema legal desde 2015.Algunas empresas ya han creado asistentes legales especializados en IA, incluso los comercializan como una alternativa asequible a los abogados humanos. El concepto claramente tiene mérito para las personas que no pueden pagar este último, pero los problemas con estos llamados abogados de inteligencia artificial son demasiado reales para ignorarlos.
4. Noticias
El uso de chatbots de IA como fuente de noticias plantea tres problemas principales: responsabilidad, contexto y poder. En primer lugar, la responsabilidad. Cuando lees una noticia, conoces la publicación y el periodista detrás de ella. Es decir, hay alguien responsable de la información que se te brinda, por lo que existe un claro incentivo para ser preciso a fin de mantener la reputación y la credibilidad.Pero con un chatbot de IA, no hay una persona individual que escriba la noticia. En cambio, el bot solo está resumiendo las historias que ya están disponibles en la web. Esto significa que no hay una fuente primaria y no sabe de dónde proviene la información. Por lo tanto, no es tan confiable.
5. Opinión política
Debería ser bastante obvio por qué pedirle una opinión política a un chatbot es un gran no. Cuando le preguntas a ChatGPT su opinión sobre cualquier asunto político, generalmente obtendrás una respuesta restringida que dice algo como esto: “Como modelo de lenguaje de IA, no tengo preferencias ni deseos personales…”6. Contenido Comercial
El punto fuerte de los chatbots de IA es que pueden producir contenido al instante. Lo que a un humano le tomaría un par de horas escribir, ChatGPT puede hacerlo en segundos. Excepto que no es perfecto.Incluso si pasas por alto la ética cuestionable del uso de chatbots de IA para escribir contenido, no puedes ignorar que simplemente no son lo suficientemente buenos y no pueden reemplazar a los escritores humanos. Todavía no, al menos. ChatGPT, por ejemplo, a menudo ofrece contenido inexacto, desactualizado y repetitivo.