Experto analiza: ¿Chat GPT puede reemplazar a un psicólogo?
Muchas personas están utilizando herramientas de inteligencia artificial buscando apoyo terapéutico.
¿Cuál es el contexto?
Desde solicitar ayuda para preparar una receta culinaria hasta pedir consejos financieros para hacer rendir el salario hasta fin de mes, la Inteligencia Artificial (IA) se ha convertido en una herramienta habitual en el día a día de las personas.
¿Cuál es la problemática?
Aunque estas tencologías pueden proporcionar información útil, no han sido diseñadas para sustituir, por ejemplo, el apoyo que puede brindar un psicólogo profesional.
¿Qué dice un especialista?
Así lo destacó Nadia Ramos Alvarado, directora del Centro de Psicología Aplicada(CEPA) de la Universidad de Talca, quien explicó que el uso de una IA puede –eventualmente- ser un apoyo, pero no puede ser considerado como una psicoterapia, ya que, esta “tiene características particulares, asociadas al establecimiento de una relación con otra persona y dándose en un entorno de confianza”.
"La inteligencia artificial no tiene capacidad de comprender la complejidad única de cada individuo, por tanto, solo puede entregar recomendaciones genéricas. Tampoco es capaz de percibir las señales no verbales, aspectos que un terapeuta profesional entrenado sí puede hacer", añadió.
Rcalcó que la IA,en sus versiones conversacionales,puede "entregar ciertos consejos ,pero queno reemplazarun proceso terapéutico.Yo diríaqueel riesgo,enel caso ademásde poblaciones vulnerablescomo los niños,nñas adolescentes ,esque ellosno tienen todavíala capacidad dediscriminarhasta dóndepuede llegar el usode estatcnología".HayqueconsiderarseñalólapsicólogaNadia RamosAlvaradoquelas aplicacioness basan,muchasdeellas,en elementosquetienenquevermásconentretenimientoynoestán pensadosenfunciónde lasaludmentaly,porejemplo,puedenterminarrafirmandopensamientosquetodavíaerróneoso creenciasquetándistorsionadasenlapersona"."
"Es peligroso?""Cuandounopienseenquesepuedehacerunamigovirtualelfoconoescuidadodelsaludmentalynotampocoestábasadoenevidenciacientífica.Entonceshayunriesgoporque lainteligenciaartificialtienesesycometeerroresimpidiendoestableceruna relaciógenuinadeapoyoydeacompañamientoparauncambioqueselo esperaenpsicoterapia",indicólasespecialista."Cualeselriesgo?""Si bienhaychatbotsdeIAcreadosparaabordartemasdesaludmental,no cuentanconevidenciacientíficadesuefectividad"."Tambiénexistenchatbotsdesarrolladoscomoentretenimiento,porelousoparasaludmentalesaúnmáscomplejoyaqueteilizanalgoritmosparamanteneralusuarioscomprometidosenlaactividadlamayorcantidaddetiemporecopilandodatos,ylosusuariosnotienenclarasu finalidadosi tienennivelesdeconfidencialidadapropiadosalconterapeutico",agregóaqué puedeocurrira futuro?"Aldíade hoy,sibienescierto sepuedenprogramaralgúnselementosasociadosala interacciónconlaspersonasnontiene lacapacidadd eanalizarlosaspectosemocionalesquestán implicadosenuna relaciónterapéutica,d estarcaracara,aunqueseaporvirtualidad",explicólodocente. .