Nerea Melgosa propone cinco compromisos para incluir la IA en los servicios sociales

Nerea Melgosa, en su intervención en el encuentro organizado en Donostia por Behatuz.
La consejera de Bienestar, Juventud y Reto Demográfico, Nerea Melgosa, ha propuesto cinco compromisos para la inclusión de la inteligencia artificial (IA) en los servicios sociales. Entre ellos, destacó la importancia de “poner a la persona en el centro”, del fortalecimiento de los equipos profesionales y de un avance basado en la evidencia y el testeo.
Melgosa ha explicado estos compromisos de su departamento ante un centenar de participantes en el encuentro ‘Inteligencia Artificial y Servicios Sociales’, celebrado en el Palacio Miramar, en Donostia, y organizado por el Observatorio Vasco de Servicios Sociales (Behatuz).
Durante la jornada, se ha generado una conversación abierta, crítica y constructiva sobre los usos de la IA en los servicios sociales, y los medios para facilitar usos adecuados. De esta manera, la consejera ha desgranado sus cinco compromisos, asegurando que “ninguna herramienta de IA podrá sustituir la valoración profesional ni la decisión de la persona sobre su propio proyecto vital”. Para la consejera, el primer compromiso es que “la IA acompañará”, pero “no decidirá”.
El segundo y tercer punto que ha tenido en cuenta Melgosa han sido, por un lado, la necesidad de un acercamiento ético: “Todo piloto o servicio con IA deberá incluir evaluación de impacto algorítmico, análisis de sesgos, explicabilidad comprensible y mecanismos de reclamación”; y por otro, la exigencia de “datos con garantías y con sentido”. Se avanzará, ha añadido, “hacia la interoperabilidad y las plataformas federadas para aprovechar el valor de los datos sin comprometer la privacidad”.
El cuarto compromiso se ha referido a la capacidad pública y el talento interdisciplinar. “Se fortalerecerán equipos con profesionales sociales, tecnólogos, juristas, economistas, personas expertas por experiencia y representantes del tercer sector”, ha explicado.
Finalmente, el quinto compromiso es avanzar a través de la evidencia y los proyectos piloto: “Se testará con cautela, se medirán los resultados —incluida la percepción de las personas usuarias— y se escalará solo lo que demuestre mejorar la calidad, la equidad y la eficiencia”.
La consejera ha advertido de que “en Europa ya conocemos casos en los que sistemas automatizados mal diseñados dañaron justamente a quienes debían proteger —infancia, personas vulnerables—. Aprendamos de esos errores: sin controles, sin transparencia y sin participación, la automatización puede agravar desigualdades. Con buen gobierno, en cambio, puede ser una palanca de justicia”.
El encuentro ha contado con las ponencias de Albert Sabater Coll, profesor Serra Húnter de Sociología Computacional en la Universidad de Girona y director del Observatorio de Ética en Inteligencia Artificial de Cataluña; Konstantina Leventi, responsable de políticas en la EASPD (European Association of Service Providers for Persons with Disabilities); Juan Martín Doreste, viceconsejero de Igualdad y Diversidad del Gobierno de Canarias; Eduardo Apodaka y Asier Amezaga, profesores de EHU y responsables del programa HarilkAI; Iñigo Mijangos, del servicio de teleasistencia Beti-On, y Rakel Aristegi, de la Fundación Adinberri.