Pedagogía sobre el uso responsable de herramientas generativas

Ha caído en mis manos un artículo en el que se habla de un informe que OpenAI ha compartido con Axios, en el que se dice que más del 5% de todos los mensajes enviados a ChatGPT a nivel global tratan sobre temas de salud. Sólo en Estados Unidos, 40 millones de personas usan el chatbot a diario para consultas médicas. Estamos hablando de casi dos millones de preguntas semanales sobre seguros de salud.

El dato me parece cuando menos llamativo, pero necesita contexto. No es lo mismo, no significa lo mismo en cualquier lugar del mundo.

El contexto estadounidense no es extrapolable

Estos números corresponden sólo a Estados Unidos, un país en el que el sistema de salud es caro, fragmentado y con acceso muy limitado para millones de personas. Es decir, no estamos hablando de sistemas públicos de salud como los europeos, donde la atención primaria es accesible y gratuita. En EEUU, ir al médico puede costarte mucho mucho dinero. Además de eso, lidiar con el sistema de seguros es un laberinto burocrático que pocos entienden completamente.

Users ask it to explain medical bills, compare insurance plans, or check symptoms, often because they can’t get in to see a doctor right away.

Entonces, cuando el artículo menciona que la gente usa ChatGPT “porque no hay médico disponible en ese momento”, hay que leer entre líneas. No se trata solamente una cuestión de disponibilidad horaria. Es que acudir al médico puede significar un coste económico inasumible o enfrentarse a una burocracia tremenda.

En ese contexto, la gente le pregunta a la IA cómo interpretar una factura médica, qué plan de seguro contratar, o si sus síntomas son preocupantes. OpenAI ha detectado esta tendencia y ha posicionado GPT-5 como especialmente capaz para estos casos de uso.

Los riesgos que no deberíamos cansarnos de subrayar

Aquí viene lo importante, y es algo sobre lo que no deberíamos cansarnos de insistir: usar IA para buscar consejo médico conlleva riesgos no menores.

Los modelos de lenguaje alucinan. Inventan información con una confianza que puede ser peligrosa y muchos usuarios probablemente están usando versiones más débiles, sin capacidades de razonamiento avanzadas. No olvidemos que en el contexto tecnológico, normalmente somos lo que se viene a determinar como early adopters, pero eso no lo deberíamos extrapolar al común de los mortales.

Todo esto que sugiero no es alarmismo sino que es realismo. Estamos en un momento muy inicial de las herramientas de inteligencia artificial generativa, y mucha gente todavía no sabe cómo usarlas. No entienden sus limitaciones, confían en las respuestas que dan como si fueran definitivas, y pueden tomar decisiones importantes con base en esa información.

La responsabilidad del diseño

Aquí es donde el diseño tiene, o tendría, mucho que hacer. No se trata de poner sobre la mesa soluciones tecnológicas mágicas, sino que estoy hablando de responsabilidad profesional.

Estoy hablando de diseñar interfaces que no induzcan a confianza ciega, de contextualizar y establecer limitaciones de forma clara. También, por supuesto, de formar y educar en el uso a través del propio diseño de la experiencia de usuario.

Cuando diseñamos productos que integran IA, no podemos ignorar estos contextos. No es lo mismo diseñar para alguien en España con acceso a atención primaria gratuita que para alguien en Estados Unidos que se juega 500 dólares en una visita a urgencias. La IA no es neutral, opera en circunstancias específicas que condicionan cómo se usa y qué riesgos conlleva.

Datos muy sabrosos para procesar adecuadamente

Hacer pedagogía sobre el uso responsable de herramientas digitales es parte de nuestra labor profesional. Especialmente ahora, cuando estas tecnologías son tan nuevas, aunque no lo parezca, y tan potentes.

Y hablando de información sabrosa: esos dos millones de consultas semanales sobre salud que OpenAI registra son, efectivamente, información muy valiosa para procesar adecuadamente. Estamos hablando de ingentes cantidades de información a gran escala sobre las preocupaciones sanitarias de millones de ciudadanos. Sus miedos, sus síntomas, sus dudas sobre seguros médicos. Todo eso queda registrado, las herramientas de IA tienen acceso a grandes volúmenes de información relevante. Es un nivel de conocimiento sobre la población que tiene implicaciones que van mucho más allá de la simple asistencia técnica.

No se trata de demonizar la tecnología ni de prohibir su uso. Se trata de entender sus límites, comunicar sus riesgos, y diseñar experiencias que ayuden a las personas a tomar mejores decisiones.

Esa es nuestra responsabilidad como profesionales que trabajamos en la intersección entre tecnología y personas.

Publicado por

torresburriel

Llevo más de 20 años trabajando en diseño digital e investigación con usuarios. Soy CEO de Torresburriel Estudio, miembro español de UXalliance, presidente de UXPA Spain y autor de tres libros sobre diseño digital.

Un comentario en «Pedagogía sobre el uso responsable de herramientas generativas»

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *