
LA SALUD MENTAL EN TIEMPOS DE DISPOSITIVOS
Publicado el Lunes, 17 Feb. 2025
Sabemos que los dispositivos inteligentes han llegado para facilitarnos la vida. Nos permiten resolver problemas complejos y delegar tareas que incluyen importantes esfuerzos cognitivos. Es evidente que hoy nadie hace una división en papel si puede acceder las 24hs a una calculadora. Las redes sociales o las videollamadas, que aparecían en todas las series futuristas del siglo XX, ya son una realidad que nos permiten compartir, por ejemplo, una cotidianeidad con nuestros seres queridos que se encuentran lejos ¡Y ni hablar de Google! La enciclopedia de bolsillo que nos responde en segundos casi todas las incógnitas del Universo.
¿Pero qué efectos experimentamos producto de esta existencia tan mediada por los dispositivos? ¿Qué cuota de sufrimiento psíquico estamos pagando por tamañas comodidades?
ADICCIÓN A LOS ALGORTIMOS
Dentro del conglomerado amplio que constituye la tecnología, encontramos cierto tipo de dispositivos que funcionan con Inteligencia Artificial. Su característica distintiva consiste en el procesamiento de grandes datos de información, almacenamiento y producción de respuestas en función de un aprendizaje progresivo. Los asistentes de voz, el reconocimiento de rostros en la cámara de tu smartphone, los mapas de navegación para conducir tu vehículo o los algoritmos de las redes sociales y buscadores, almacenan, procesan y aprenden en función de tus interacciones con ellos.
Esta capacidad de aprender les permite a los dispositivos incurrir en algo llamado 'brainhacking', una suerte de práctica de influencia de las conductas, con el objetivo de que permanezcas el mayor tiempo posible utilizándolas.
Tristan Harris (2016), presidente del Center for Humane Technology, especialista en persuasión y diseño ético en Google, afirmó que, con el objetivo de captar la atención de los usuarios el mayor tiempo posible, los algoritmos de las aplicaciones están diseñados para ofrecer contenidos y opciones personalizadas con base en las interacciones de los usuarios con lo que les gusta e interesa.
A ello se agregan otros elementos como la incorporación de notificaciones en color rojo, que funcionan como reforzadores de conducta. Los 'me gusta' y el despliegue de menús de contenido infinito que juegan con nuestra necesidad de aprobación social y el temor a perdernos algo.
Desde luego: ¿quién querría perderse semejante banquete?
Y esto es importante porque si se utilizan conocimientos provenientes de las neurociencias y la psicología para producir efectos de reforzamiento, dirigir la atención e influir en los procesos de toma de decisión, se crea un escenario que bordea la manipulación y promueve la dependencia.
Muchas investigaciones han demostrado la tendencia obsesiva que surge en los usuarios frente a las redes sociales y su correspondencia con dificultades en la concentración ante tareas que requieren mayor tiempo de ejecución o un mejor manejo de la frustración, como la lectura y el aprendizaje.
Los parámetros que se utilizan para estudiar las adicciones conductuales incluyen la frecuencia de uso, el dinero invertido, la sensación de necesidad o compulsión y las interferencias que provocan en la vida cotidiana. La ejecución automática y repetitiva de ciertas acciones, sin mediación de la consciencia y en ocasiones, sin motivación clara, afectan la autonomía, el autocontrol y la percepción del sí mismo como un sujeto empoderado. De igual forma, la dependencia y la atención focalizada en los dispositivos por largos períodos propicia sentimientos de malestar frente a su suspensión, similares a la abstinencia y reiterados intentos fallidos de dejar de utilizarlos (Pérez Pérez, 2011; García del Castillo, 2013).
ANSIEDAD Y FLUJO DE INFORMACIÓN
Al mismo tiempo, producto de la alfabetización creciente en tecnología y el intercambio cotidiano que tenemos con distintas plataformas e interfaces, los seres humanos hemos evolucionado en conjunto con ellas en búsqueda de adaptación. Somos capaces de recibir y procesar una gran cantidad de estímulos e información a toda hora, al tiempo que intentamos optimizarnos y ser cada vez más eficientes para poder sobrevivir y trabajar en este contexto.
Pero el flujo constante de información al que estamos sometidos nos genera una sensación de profunda exigencia, demanda y aceleración. A la par que avanza nuestro acceso a los dispositivos y el trabajo remoto, avanza de forma ininterrumpida la ansiedad y la depresión.
La velocidad de la información es mucho más rápida que nuestra capacidad de elaborarla. Somos sujetos inteligentes, pero también somos órganos sensibles. La elaboración psicológica y corporal de los estímulos visuales, semánticos y sonoros requiere un tiempo mayor al de su percepción y clasificación. Se trata de un tiempo emocional y personal y no puede ser dramáticamente reducido más allá de cierto punto. Nuestra mente y nuestro cuerpo se ven invadidos por una aceleración perceptiva que no da lugar a hacer de ella una experiencia (Berardi, 2016).
Como consecuencia, el síntoma de la época es la ansiedad. La ansiedad no conoce del tiempo. Se trata de una precipitación que sólo codifica el peligro, el miedo y el colapso de los sentidos. Contamos con más recursos y condiciones de confort que en toda la historia de la humanidad, pero nunca estuvimos tan cansados ¿Acaso alguien trabaja menos?
En este sentido, el diseño en tecnología no solo debería contemplar aspectos de seguridad, confiabilidad y robustez, sino también considerar las implicaciones emocionales que despierta la interacción humano-máquina (GEE, 2O19). Porque mientras que los dispositivos funcionan en el plano de la lógica formal, el ser humano porta sensibilidad, intencionalidad, lenguaje simbólico y tiene la capacidad de experimentar sufrimiento.
LA OPACIDAD ES ARTESANA DEL PODER
Otro aspecto complejo de las nuevas tecnologías reside en la opacidad de sus operaciones. La Inteligencia Artificial opera con datos masivos y procesamientos cada vez más difíciles de monitorear y explicar, incluso para quienes las diseñaron.
El Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías llamó la atención en 2019 sobre los 'enfoques de redes generativas antagónicas' (generative adversarial networks), que posibilitan que las máquinas aprendan por sí mismas nuevas estrategias y análisis de datos. De modo tal que sus acciones y procesos se vuelven cada vez más inaccesibles al escrutinio humano, resultando imposible averiguar cómo se generaron ciertos resultados más allá de los algoritmos inicialmente programadas.
En este sentido, el crecimiento técnico es indispensable, pero ¿se trata de un avance que podemos gestionar? Desde el punto de vista de la bioética, es importante observar que la difusión y creación de nuevos artefactos y tecnologías no constituyan una afrenta a la dignidad y la autonomía humana; en especial cuando la Inteligencia Artificial y la robótica avanzan más rápidamente que el proceso deliberativo y los marcos regulatorios.
La tecnología no puede medirse solo en relación a su aplicabilidad, sino también en las dinámicas de saber-poder que introduce. Es fundamental hacer hincapié en la prevención de los excesos, pero sin llegar a un conservadurismo que atente contra el desarrollo y apele para ello a una supuesta naturaleza humana perdida. Gran parte de las operaciones cognitivas que se realizan diariamente se ven apoyadas o delegadas en dispositivos, de forma tal que ya no podría concebirse un sujeto natural disociado de la tecnología. Evolutivamente, los artefactos tecnológicos al igual que el lenguaje, han precedido y posibilitado mucho del conocimiento humano abstracto (Apud, 2014).
Correlativamente al avance de los discursos posthumanistas, que confían en la ciencia y la tecnología para la mejora continua de la condición humana, se produce la mutación misma de lo humano. Se inaugura un nuevo paradigma, cuya figura más representativa es la del 'cyborg' (Haraway, 1991), una suerte de fusión del organismo vivo con la tecnología, los textos y el entorno, donde la acción deja de pensarse como un acto individual enteramente humano.
El código tecnológico estructurado por los sujetos resulta también estructurante y las unidades de hardware y software pueden funcionar entonces como regímenes reguladores que comparten cierta función normativa con la ley (Montenegro Martínez y Pujol Tarrés, 2014).
Quizás una alternativa implique no dejarnos capturar por una temporalidad veloz, que no deja lugar a la experiencia y la reflexión crítica. Orientarnos, en tanto sociedad, hacia la regulación de los diseños inteligentes desde una perspectiva ética, al mismo tiempo que conceptos recientes como el de ciudadanía digital, pueden proveernos de marcos epistemológicos y políticos para la implementación de protección legal. Establecer dichos resguardos en pos del bienestar social será fundamental en el futuro y requerirá procesos democráticos deliberativos, para evitar el traslado de ciertos procesos de desarrollo y aplicación de la Inteligencia Artificial hacia regiones con estándares éticos más permisivos. (GEE, 2019).
APUD, I (2014) ¿La mente se extiende a través de los artefactos? Algunas cuestiones sobre el concepto de cognición distribuida aplicado a la interacción mente-tecnología. En Revista de Filosofía Vol. 39, Nº 1, pp: 137-161. Uruguay.
BERARDI, F. (2016) Fenomenología del Fin. Sensibilidad y mutación conectiva. Ed. Caja Negra.
GARCÍA DEL CASTILLO, J. A. (2013) Adicciones Tecnológicas: El auge de las redes sociales. Revista Health and Addictions, Vol. 13, nº 1, pp. 5-14. ISSN 1578-5319. Instituto de Investigación de Drogodependencias, Universidad Miguel Hernández. España.
GRUPO EUROPEO SOBRE ÉTICA DE LA CIENCIA Y LAS NUEVAS TECNOLOGÍAS (2019) Declaración sobre Inteligencia artificial, robótica y sistemas autónomos. Disponible en: EGE_inteligencia-artificial.pdf (ub.edu)
HARAWAY, D. J. (1991) Ciencia, Cyborgs y Mujeres. Ed. Cátedra. España.
HARRIS, T. (2016) How Technology is Hijacking Your Mind — from a Magician and Google Design Ethicist. Revista Medium. Disponible en: www.medium.com
MONTENEGRO MARTÍNEZ, M. y PUJOL TARRÉS, J. (2014) Investigación, articulación y agenciamientos tecnológicos de género: el caso 'Generatech'. En Revista Athenea Digital Nº 14, pp. 29-48, ISSN: 1578-8946. España.
PÉREZ PÉREZ, J. A. (2011) Redes sociales virtuales y la bioética. Revista El ágora USB Nº 11, pp. 175-204. Disponible: https://doi.org/10.21500/16578031.381
PUYOL, A. (2012) Hay bioética más allá de la autonomía. Revista de Bioética y Derecho N? 25, pp. 45-58. Disponible en: https://dx.doi.org/10.4321/S1886-58872012000200005