Una nueva antipsiquiatría - Texto

De Carlos Pérez Soto
Saltar a: navegación, buscar


Contenido

Una nueva antipsiquiatría

Agradecimientos

Este libro ha sido posible, en primer lugar, gracias a los muchos semestres que he dedicado a enseñar en diversas Escuelas de Psicología cuestiones referentes a epistemología y fundamentos de las teorías psicológicas y, en ellos, a la constante y valiosa confrontación con las opiniones e inquietudes de los estudiantes, que contrastan tan visiblemente con la mezquindad profesional y académica de la mayoría de los profesores con que me ha tocado ser colega, en particular, la de aquellos que se dedican a la psicología clínica.


Con el tiempo, no pocos de los estudiantes que he tenido a lo largo de los últimos veinte años han llegado a ser ellos mismos académicos universitarios, en general provistos de saberes más actuales, específicos y abundantes que los míos, en sus respectivos temas. Sobre todo entre los que se han orientado hacia los campos teóricos que en Psicología suelen llamarse “sociales”, he ido encontrando poco a poco un cierto eco respecto de las cosas que enseño y de las muchísimas cosas que he aprendido de los psicólogos sociales, ya clásicos, en Chile. Entre esos “clásicos” mantengo una enorme deuda académica y humana con mi buen amigo Domingo Asún Salazar. Entre los “nuevos” tengo que agradecer las muchas conversaciones con mi amigo Pablo Rojas Líbano, que leyó y corrigió detalladamente el texto en elaboración, y cuyas sugerencias he integrado en todos los casos. También a mis colegas del Magíster en Terapia Ocupacional de la Universidad Andrés Bello. Y, entre los “novísimos”, agradecer a los porfiados estudiantes de Psicología que se organizan como “contrapsicólogos”, siguiendo el espíritu de lucha de los que antes fueron llamados antipsiquiatras.


Ni el entusiasmo, ni la consistencia necesaria, ni las renovadas ganas de luchar por un mundo mejor, que me han hecho investigar y escribir habrían sido posibles sin Alejandra Córdoba, Guadalquivir, que ha vuelto.


Aunque no los conozco personalmente, debo agradecer también lo mucho que he aprendido, como intelectual y como padre, de los escritos y las luchas de los nuevos antipsiquiatras, que cito reiteradamente en este libro, en particular de Peter Breggin, Joanna Montcrieff, Loren Mosher, Richard Bentall, David Cohen, John Read y Thomas Szasz, y de las hermosas experiencias del Icarus Project, en Estados Unidos y Hearing Voices, en Inglaterra.


Agradezco, una vez más, a Silvia Aguilera y Pablo Slachevsky, de editorial LOM, por su permanente disposición para acoger las cosas que escribo, y la amable paciencia con que han considerado siempre los tiempos y plazos en torno a lo que sólo la vanidad me hace considerar como deberes intelectuales urgentes.


Pero, por sobre todo, no habría llegado a escribir todo esto precisamente como libro si no es por mi hijo Ignacio Mijael, que con humor, inteligencia y sabiduría, ha sabido sobreponerse a los bien intencionados errores de sus padres. A él, y a los niños que viven y vivirán lo que él vivió, lo dedico con amor de padre y solidaridad de compañero.


Introducción: Antipsiquiatras clásicos y de nuevo tipo

La antipsiquiatría fue uno de los muchos campos de renovación y crítica en las grandes luchas de los años alegres y humanistas que fueron los “locos 60”. El término “antipsiquiatría” fue propuesto por David Cooper, en 1967, en una época radical y optimista, en que nadie dudaba en llamar “anti” a una postura que criticara desde sus fundamentos la realidad establecida. La revolución de las flores, la revolución cubana, los gobiernos de izquierda en América Latina y África, el radicalismo de la liberación femenina, los movimientos por los derechos civiles y contra la guerra de Vietnam en Estados Unidos, los movimientos estudiantiles y campesinos, convergían en la gran tarea, de contenidos y colores muy diversos, que es la búsqueda de un mundo mejor.


En ese contexto, la crítica contra el encierro forzoso y las penosas condiciones de vida de las personas diagnosticadas como “locos”, surgió desde varios focos a la vez. Investigadores sociales, filósofos y, sobre todo psiquiatras comprometidos, en Europa y Estados Unidos.


El sociólogo Erving Goffman (1922-1982), estudió las condiciones de vida en manicomios en Estados Unidos, y publicó sus resultados en Asylums, un libro que tuvo un gran eco, convirtiéndose en el texto fundamental de la “teoría del etiquetamiento”, que describe la estigmatización psiquiátrica y la falta de validez del diagnóstico psiquiátrico habitual. Los estudios de David Rosenhan (1972) y de Maurice Temerlin (1975), (ver Capítulo V, b.) son sus productos más citados y de mayor influencia.


En Francia, Michel Foucault (1926-1984), siguiendo los pasos de su maestro Georges Canguilhem, publicó, también en 1961, Historia de la locura en la época clásica, y luego, en 1963, El nacimiento de la clínica, dos textos que han tenido una enorme influencia, y que han inspirado y servido de sustento teórico a una gran variedad de estudios e investigaciones hasta el día de hoy.[1]


Sin embargo, la antipsiquiatría como movimiento no surge propiamente de estas fuentes teóricas sino de la práctica radical de psiquiatras comprometidos, en Inglaterra, Italia y Estados Unidos.


En Inglaterra los más importantes son David Cooper (1931-1986) y Ronald Laing (1927-1989).


Cooper, psiquiatra, radicado en Londres desde 1956, de orientación marxista, participó con Laing en las críticas más tempranas a la institución hospitalaria, llevadas a la práctica en varias comunidades terapéuticas en los años 60, entre ellas Villa 21, en Londres, en que participó entre 1962 y 1966. A lo largo de los años 60 fue separándose progresivamente de la postura de Laing para profundizar la asociación entre antipsiquiatría y marxismo. Esto lo llevó a la organización del Congreso de Antipsiquiatría “Dialéctica de la Liberación”, en 1967, cuyas discusiones se consignan en el libro del mismo nombre, y luego lo impulsó a viajar a Argentina, en el contexto de la radicalización de la lucha política, entre 1972 y 1974, antes del golpe militar.


Laing, por su parte, fue discípulo de Donald Winnicott, y también heredero de la psiquiatría de orientación fenomenológica inaugurada hacia 1910 por Karl Jaspers. A lo largo de los años 60, sin embargo, formó parte de los sectores más intelectuales del movimiento hippie, y predicó (y practicó) un camino de reconocimiento y validación de la lógica interna de la locura basado en terapias a través del uso de drogas, particularmente el LSD. Un camino que terminó por abandonar y desaconsejar a mediados de los años 80. Laing es también uno de los fundadores de la casa Kingsley Hall, que funcionó en su primera época entre 1965 y 1970, y que es la primera de la Philadelphia Association, que desde 1965 hasta hoy, ha mantenido hasta veinte casas de encuentro, principalmente para “esquizofrénicos”, siguiendo los lineamientos trazados por él, en sus múltiples obras.[2]


En Italia, el gran luchador fue el psiquiatra Franco Basaglia (1924-1980). La gran tarea que promovió Basaglia, a través de lo que llamó psiquiatría democrática, fue la desinstitucionalización del tratamiento de las alteraciones mentales, combatiendo el encierro y la medicamentación forzosa, promoviendo el desmantelamiento de la infraestructura médica de los manicomios para convertirlos en centro de acogida, de encuentro y creación cultural. Él mismo dirigió, primero en Gorizia (1962-1968) y luego en Trieste (1971-1979), las primeras experiencias en que los manicomios pasaron de ser considerados dependencias hospitalarias a operar como centros de actividad social. En el curso de esta tarea actuó como un incansable activista, formando a muchos psiquiatras jóvenes, y dando a su crítica del modelo médico el carácter de una lucha política, buscando cambios legales concretos, e inserta en la lucha general de la izquierda italiana.


El resultado fue la conversión de las demandas antipsiquiátricas en (parte de) un gran movimiento social que culminó en la aprobación por el parlamento italiano de la histórica Ley 180, promulgada el 13 de mayo de 1978, que es llamada hoy, con justicia, Ley Basaglia. La Ley Basaglia consagra con fuerza jurídica los principios de la psiquiatría democrática, y establece, por primera vez en el mundo, un ámbito de derechos, y de deberes correspondientes del Estado, para las personas que viven alteraciones del comportamiento que, lentamente, muchos países fueron adoptando luego. En particular las legislaciones más avanzadas, que la toman como referencia y modelo, en Inglaterra, Escocia y Gales. Con esta Ley se inició un proceso de deshospitalización de los manicomios que hace que hoy Italia tenga el menor número de camas hospitalarias por habitante dedicadas a la alteración mental entre todos los países desarrollados y, a la vez, la mayor cantidad de centros consagrados a la intervención social democrática y reconocedora sobre estos estados, la mayoría de ellos gestionados con participación de sus propios usuarios y con apoyo estatal.


Desde mediados de los años 70 el gran entusiasmo crítico de la década anterior cedió, en todo el mundo y en todos los ámbitos, ante la marea conservadora que luego caracterizó a los años 80 y 90, con su peculiar mezcla de ultra liberalismo económico e integrismo reaccionario en el plano social y político. La “era Reagan” (1980-1988), el neoliberalismo, la decadencia del totalitarismo soviético, las dictaduras latinoamericanas, el oscurantismo del integrismo católico e islámico marcaron, y marcan, treinta años sombríos.


Como ocurre en todos los grandes cambios culturales, una profunda terapia lingüística acompañó a cada uno de estos procesos, y pesa hasta hoy sobre los hábitos cotidianos. Se hizo abiertamente incómodo e impopular hablar de “pueblo” (ahora se dice “la gente”), y más aún de “proletariado” (ahora todos son “capas medias”), se dejó de hablar de “compromiso” y “combatiente”, e incluso de “izquierda y derecha” (una ficción del pasado). El marxismo, el estructuralismo, el psicoanálisis, fueron declarados “grandes relatos” (por supuesto para diagnosticar su fin), e incluso el feminismo radical y la teología de la liberación se convirtieron en “feminismo pragmático” y teología de la reconciliación. En el ámbito académico la llamada “deconstrucción” llenó de “post” todas las temáticas imaginables, fomentando de manera directa, y en perfecta sintonía con los tiempos, la evasión academicista y el quietismo político. En la vida cotidiana los clichés orientalistas, gimnásticos y esotéricos llenaron el espacio de lo “alternativo” bajo las mismas premisas de individualismo, evasión y ausentismo político de la marea “post”.


Desde luego, en este contexto de contrarrevolución lingüística, uno de los términos más impopulares llegó a ser el “anti” que encabezó la postura de tantas iniciativas críticas de los 60. Como corresponde y es típico de la estigmatización conservadora, su sentido fue distorsionado desde “crítica radical” hasta convertirlo en “negación total”, cambiando su connotación desde la crítica a la corriente hegemónica de un ámbito determinado hacia la idea de abandono total y abstracto de todo lo que pudiese significar, bueno o malo. Una distorsión que, desde luego, está en línea con la arremetida general contra todo intento crítico que no se enmarque estrictamente en los supuestos del sistema dominante. Sólo resultó aceptable la crítica “positiva”, que reforma y mejora lo que ya existe. La crítica radical, al fundamento de lo existente, fue considerada disolvente y también, por supuesto, mera proyección de tensiones internas (eventualmente “endógenas”) de personas (individualmente) resentidas o atormentadas. No hay que olvidar que en esta época no sólo se decretó el “fin de las ideologías” sino, incluso, el mismísimo “fin de la historia”.


De manera consistente, el término “antipsiquiatría” fue resignificado por los que se oponían a ella, sobre todo desde la revolución farmacológica promovida por los partidarios de la medicalización de la psiquiatría, y pasó a significar una oposición irreflexiva, y de algún modo irresponsable, a cualquier tipo de intervención psiquiátrica. Ronald Laing, y muchos otros, optaron por abandonar e incluso rechazar su uso. En Estados Unidos se prefirió hablar de “enfoques alternativos”, entre otras cosas para no quedar descalificados a priori en cualquier discusión, como ocurrió (y ocurre aún) en muchos otros campos en Ciencias Sociales. El movimiento italiano reforzó la idea de una psiquiatría democrática, pero desligándola en general de sus contenidos marxistas, y concentrándose en un nuevo auge de “lo psiquiátrico”. En Inglaterra se estableció el uso general del término psiquiatría crítica, también en un intento por no ser ubicados en el campo de los que negarían la psiquiatría “como tal”.


A pesar de este enorme cambio en la corriente principal de la vida cotidiana y de la actividad académica, sostener que en los años 80 y 90 el movimiento de la antipsiquiatría decayó, o incluso, según algunos, llegó a desaparecer, me parece otra de esas innumerables “verdades” propagadas por el conservadurismo con la misma intensión y contenido que el famoso “fin de la historia”. Por un lado, y muy por encima de los eventuales cambios retóricos, la corriente de desinstitucionalización no hizo más que aumentar y extenderse a decenas de países. Por otro, sustantivos cambios en la situación jurídica y en las políticas de salud, también en muchas partes del mundo, han sido llevados a cabo en el espíritu del viejo movimiento.


Es necesario considerar la poderosa continuidad y extensión de las experiencias clásicas de la psiquiatría democrática italiana y de la Philadelphia Association inglesa. También importantes experiencias análogas como la de Loren R. Mosher (1933-2004), y la casa Soteria (1971-1983), en Estados Unidos, dedicada al tratamiento no farmacológico de “esquizofrénicos”, o los múltiples centros de psiquiatría alternativa que surgieron en América Latina.


Pero, más allá de esta continuidad, dos cuestiones, contrapuestas y surgidas desde un mismo origen, marcan la deriva de la antipsiquiatría clásica a través de esas décadas oscuras hacia lo que hoy podría ser considerado como una nueva antipsiquiatría. Una es el profundo impacto de la revolución farmacológica en el propio movimiento antipsiquiátrico. Otra es la aparición, estrechamente relacionada, de movimientos de usuarios contra la medicamentación.


Los efectos extraordinarios de las drogas psicotrópicas llamadas “de primera generación”, magnificados por la masiva propaganda mercantil a través de la cual fueron impuestas, condujeron al espejismo según el cual una manera práctica, y relativamente barata, de promover la deshospitalización de los “enfermos mentales” era enviarlos a sus casas bajo una medicamentación que podía ser fácilmente administrada por sus propias familias. La experiencia de los notorios daños que producen esas drogas pudo ser oscurecida luego a través de la millonaria propaganda que condujo a la introducción de las drogas “de segunda generación” que, ahora sí, tuvieron el efecto de convencer incluso a muchos antipsiquiatras. Hay que considerar que un “enfermo mental” tranquilizado de manera profunda, en su propia casa, de algún modo oculto y apartado de cualquier forma de relación social, no sólo representa un “éxito” desde el punto de vista del orden público, sino también una importante reducción del costo de los servicios de salud que los Estados se sentían obligados a dedicarle. Todo el costo, usualmente alto, de su hospitalización podía recaer ahora sobre la manutención que normalmente le debe su familia, restando sólo el costo de la medicamentación (inicialmente barata, progresivamente cada vez más cara), y la asesoría esporádica de un servicio de psiquiatría reducido a sus profesionales esenciales y a “auxiliares de la función médica” que facilitaran su acceso a los recursos de la asistencia social estatal. Y así ocurrió de pronto que las autoridades médicas, imbuidas de espíritu neoliberal, e incluso las propias farmacéuticas, se convirtieron al credo desinstitucionalizador, asesoradas más de alguna vez por los propios antipsiquiatras sin, por supuesto, el incómodo prefijo “anti”, que no representaba ya sino un resabio del pasado.


La situación producida por esta vía no puede estar más lejos del ideario clásico. Equipos interdisciplinarios debilitados (psicólogo, trabajador social, terapeuta ocupacional, enfermeras), en que se ha reimpuesto la hegemonía del psiquiatra, nuevamente bajo el viejo modelo médico, ven reducida su labor a la de ser mediadores de la beneficencia estatal y la administración de fármacos, y se convierten de hecho en encubridores de un vasto manicomio distribuido, en que los usuarios son devueltos convenientemente y a la fuerza a su condición de “enfermos”, permanecen inhabilitados en sus camisas de fuerza químicas, sin dar problemas pero a la vez sin la menor esperanza de rehabilitación, o de reinserción social. Un negocio para el Estado y para las farmacéuticas tan conveniente que progresivamente se van integrando a él los casos de drogadicción, reemplazando drogas ilegales por drogas legales bajo la teoría no demostrada de que la adicción tendría una base orgánica,[3] o incluso diversas formas de delincuencia.


Pero, justamente como contrapartida, quizás el efecto político más importante de la nueva hegemonía farmacológica sea la aparición de amplios y masivos movimientos de exusuarios, víctimas de la psiquiatría oficial, organizados en torno a demandas propias.


Un gran precedente de estos movimientos es la protesta masiva de las organizaciones gay, encabezados por Frank Kameny (1925- ), en Estados Unidos en contra de la tipificación de la homosexualidad como trastorno psiquiátrico por el DSM-III (1968)[4], que condujo a un curioso plebiscito, convocado en 1973 por la Asociación de Psiquiatría Americana (APA), en que se acordó retirar esa categoría, que hasta ese momento era considerada como una distinción “científica”, del Manual de Diagnóstico.[5] Una extraña consulta democrática sobre algo que se consideraba propio sólo de un discernimiento científico, que es exactamente del mismo tipo que las que, con gran escándalo y alarde, se le criticaron a la Academia de Ciencias de la Unión Soviética en los años 30 y 40. Este es probablemente uno de los hitos más significativos entre las muchas iniciativas antipsiquiátricas por su poder demostrativo del flagrante carácter político y valórico de las decisiones de la psiquiatría oficial.


A lo largo de los años 80 los mismos “pacientes” llegaron a organizarse. Un ejemplo extraordinario es el movimiento Hearing Voices (Escuchando Voces), fundado en Holanda, en 1987, por el psiquiatra social Marius Romme y la periodista Sandra Escher, que reúne a personas que experimentan lo que la estigmatización psiquiátrica ha considerado históricamente como el síntoma más representativo de la “esquizofrenia”.[6]


La idea de este movimiento, que desde 1988 tiene su sede en Londres, es que los usuarios acepten y aprendan a relacionarse con las voces que escuchan en un contexto general de validación y legitimidad, completamente opuesto a la desautorización psiquiátrica y a la medicalización de sus experiencias.


Sus propósitos generales, expuestos en su página web de INTERVOICE, son:

  • mostrar que escuchar voces es una variación normal, aunque inusual, en la conducta humana;
  • mostrar que el problema no es escuchar voces sino la incapacidad para hacer frente a esa experiencia;
  • educar a la sociedad en torno al significado de escuchar voces, así como reducir la ignorancia y la ansiedad, y asegurar que este innovador acercamiento a dicha experiencia es el mejor que se conoce para los que la tienen, sus familias, para los profesionales y el público en general;
  • mostrar la amplia variedad de experiencias de escuchar voces y sus orígenes, y las maneras en que las personas las han enfrentado;
  • incrementar la calidad y cantidad del apoyo mutuo entre todas las personas y organizaciones relacionadas con el escuchar voces a lo largo del mundo;
  • hacer que nuestro trabajo sea más efectivo y desarrollar más caminos no médicos que ayuden a los que escuchan voces a abordar sus experiencias. (Traducción mía)


Después de más de treinta años de una práctica que ha congregado a miles de usuarios, Hearing Voices se ha extendido, desde Inglaterra, a veinte países, se ha organizado internacionalmente en la red The International Network for Training, Education and Research into Hearing Voices, INTERVOICE, y puede mostrar miles de casos de intervención exitosa en términos de autoaceptación, sustantiva reducción de los niveles de angustia y ansiedad, importante mejoramiento de la posibilidad de mantener relaciones interpersonales estables, y un extraordinario empoderamiento de sus usuarios, que de parias sociales, cognitivos y políticos, han pasado a ser entendidos y aceptados como personas capaces de manejar, por sí mismos y en comunidad, los asuntos más relevantes en el curso cotidiano de sus vidas. Cuestiones todas que la corriente principal de la psiquiatría actual niega de plano a quienes diagnostica y califica como “esquizofrénicos”.


Una de las organizaciones más grandes, y que ha provocado numerosos cambios legales en diversos países, es la Citizens Comission on Human Rights (CCHR), fundada en 1969 por el psiquiatra Thomas Szasz (1920- ) y miembros de la Church of Scientology. A lo largo de cuarenta años CCHR ha emprendido agresivas campañas en contra de las principales drogas psicotrópicas lanzadas al mercado, y de los procedimientos psiquiátricos más violentos aún en uso, como la lobotomía y el electroshock. Ha iniciado innumerables acciones judiciales contra psiquiatras, y contra empresas farmacéuticas, y ha difundido documentos explicativos y videos educacionales prácticamente de manera gratuita, en decenas miles de ejemplares. Cuenta con una importante presencia en Internet, a través de su sitio www.cchr.org, en que la mayoría de sus materiales educativos pueden encontrase en castellano. Actualmente posee 110 centros de activismo, en 37 países alrededor del mundo.


Leonard Roy Frank (1932- ), sobreviviente él mismo de terapias convulsivas por insulina y electroshock, fundó en 1973 el grupo de expacientes Network Against Psychiatric Assault. Los activistas Dorothy Weiner, Tom Wittick y Howard Geld, formaron en 1969 el Insane Liberation Front. Judi Chamberlain (1944-2010) formó el Mental Patients Liberation Front, a principios de los años 70, que devino en el movimiento Mad Pride, desde 1993, cuando se celebró en Canadá el primer “Psychiatric Survivor Pride Day”, que desde entonces se celebra, cada año en Toronto, y se ha extendido a varios países.


Todas estas organizaciones, y muchas otras, no hicieron sino crecer, y aumentar su fuerza, a lo largo de los años 80, hasta converger, a principios de los 90, en la World Network of Users and Survivors of Psychiatry (WNUSP), que reúne actualmente a más de 70 organizaciones de 30 países, y actúa como consultora de las Naciones Unidad en los asuntos de discapacidad y salud mental.[7]


Estos dos grandes procesos, la desinstitucionalización interesada, que le da una nueva forma a la misma dictadura psiquiátrica tradicional, y la emergencia de movimientos de usuarios y sobrevivientes, son las perspectivas actuales de la antipsiquiatría. El revisionismo implicado en la convergencia entre desinstitucionalización e intereses mercantiles, muchas veces propiciado sin querer por antipsiquiatras desilusionados de los “excesos románticos” de los años 60, es radicalmente enfrentado por las propias víctimas, que no consideran ningún exceso romántico el liberarse de la medicalización, ahora casi tan forzosa como lo fue el encierro o la lobotomía.


Y esto ha producido un importante y notable vuelco en la lógica antipsiquiátrica. Mientras desde fines de los 50 la lucha es emprendida por intelectuales (psiquiatras sociales, sociólogos o filósofos), que desde el examen de la experiencia clínica más profunda (la del encierro en manicomios) promueven organizaciones en defensa de las víctimas, desde los años 80, en cambio, el movimiento proviene de los mismos usuarios, de sectores de víctimas que en su mayoría han tenido breves estancias de internación, y sufren las consecuencias de la psiquiatría en el espacio público y en su vida cotidiana, y son estos movimientos los que buscan o empujan la tarea de intelectuales universitarios, investigadores o trabajadores médicos, en su apoyo.


Pero también de este vuelco ha resultado una nueva radicalidad, más amplia, y quizás más profunda que la de los años 60. Al observar las iniciativas predominantes en esa época clásica (Cooper, Laing, Basaglia, Mosher), y a pesar de los consistentes esfuerzos para ligarlas a la lucha política general, se detecta una confianza general en las posibilidades de la psiquiatría como disciplina, entendida bajo premisas y propuestas de tipo social e interpersonal. A pesar de que el término “antipsiquiatría” parecía contener una negación disciplinar radical, muy por el contrario, todos los antipsiquiatras importantes operaron fuertemente convencidos de que la psiquiatría, como saber y técnica específica, es decir, como disciplina, podía convertirse en algo más humano. Los movimientos actuales, en cambio, tienden a desconfiar de la psiquiatría misma, y de su ligazón con el modelo médico, profundamente arraigada a través de siglos, y plenamente presente en la formación de los nuevos psiquiatras hasta hoy.


Por lo mismo, a pesar de que la antipsiquiatría clásica operaba desde una crítica radical al modelo médico en psiquiatría, sólo incidentalmente consideró críticas a la medicalización general de la vida, que entonces se encontraba en las primeras fases de su ampliación mercantil. La crítica a la medicalización como instrumento de poder permaneció de algún modo recluida en los escritos de filósofos, como Foucault, o corrió en un carril paralelo, en el movimiento de medicina crítica que promovieron médicos como Ivan Illich (1926-2002) o Thomas McKeown (1912-1988)[8]. En los movimientos actuales, en cambio, y justamente debido al extraordinario auge de la industria médica, las críticas al modelo médico ya no se detienen en los usos de la psiquiatría, sino que se amplían hacia una crítica general del estilo de vida, empujado por los intereses mercantiles, en que los problemas relacionados con la subjetividad son vistos como susceptibles de medicamentación. La necesidad misma de una mirada psiquiátrica sobre los problemas del comportamiento es considerada bajo la sospecha de servir a los intereses de la industria. Como consecuencia, la psiquiatría es ahora objetada en tanto disciplina, a la luz de toda su historia de vinculaciones con los intereses médicos.


Y esta extensión de la problemática de la antipsiquiatría va de la mano de otro cambio notable. Mientras el objeto de intervención de los antipsiquiatras clásicos eran personas con dificultades bastante serias, en general agravadas por el encierro y la propia intervención psiquiátrica, el problema masivo actual es el de personas habitualmente normales, que han tenido dificultades temporales en el plano subjetivo, y que han sido literalmente convertidas en pacientes de trastornos mentales por la ampliación y el escalamiento diagnóstico, una situación a partir de la cual, sometidos a medicamentación, su estado no hace sino empeorar en un ciclo típico: mejoramientos parciales y temporales, dependencia y empeoramiento global y de mayor plazo.


Hay que tener presente que hasta hace muy poco, no más de diez o quince años, diagnosticar a alguien de sufrir depresión mayor, trastorno bipolar o esquizofrenia era una situación relativamente rara, que se consideraba grave, y que afectaba sólo a una ínfima minoría de las personas que tenían dificultades subjetivas. Y, desde luego, menos frecuente aún, aunque sólo fuese por la capacidad limitada de los manicomios, eran los casos de personas que llegaban a experimentar encierro o medicamentación forzosa. Debido a esto, a pesar de que la antipsiquiatría clásica se ocupaba de un grave y profundo problema de derechos humanos, el campo de su acción tenía una incidencia relativamente menor en la población general. El panorama ahora es sustancialmente diferente: decenas de millones de personas sufren la intervención cotidiana de la psiquiatría de orientación farmacológica, millones de niños, millones de personas cuyos trastornos, aun siendo delicados, podrían haber tenido una evolución perfectamente aceptable sin intervención especializada alguna.


La nueva antipsiquiatría está así, a diferencia de la clásica, frente a un problema que ha alcanzado las proporciones de una epidemia, una situación que ha llegado a tener un enorme impacto sobre la vida social, es decir, de manera literal, no sólo por la visión humanista y preclara de los psiquiatras sociales, un problema de envergadura política.


Sostengo que es este carácter político masivo el que opera como fundamento efectivo de su radicalidad. La psiquiatría misma es cuestionada no sólo por su historia, sino por su presente de flagrante complicidad con la medicalización de la vida. Para los movimientos de usuarios, de víctimas, la mayoría de las cuales se hace llamar y se siente de manera real como “sobrevivientes”, los trastornos en el comportamiento se han convertido en el principal caso de no enfermedades, en el sentido definido por Clifton K. Meador[9] (ver Capítulo V. a.), es decir, como condiciones problemáticas cuya deriva sería mucho más fluida, y tendría mucho mejor pronóstico si NO fuesen consideradas como enfermedades. O, también, para decirlo más directamente, situaciones en que la intervención de tipo médico de un psiquiatra simplemente no es necesaria. Situaciones que podrían ser enfrentadas y eventualmente resueltas sólo entre pares, o con la asistencia de personas comunes medianamente capacitadas o, a lo sumo, en el marco de la intervención de un equipo tanto de pares como de profesionales específicos, en que el psiquiatra, asumiendo una orientación decididamente social, opera como uno más, dispuesto a validar y a reconocer, más que a diagnosticar y tratar.


La psiquiatría es cuestionada ahora radicalmente no sólo en virtud de su práctica hegemónica, cuyos casos más violentos siempre podrían ser disculpados bajo la pretensión de que se trataría de meros abusos ocasionales. Se trata hoy de objetar el saber psiquiátrico mismo, en su corriente principal. Estando probado ya, de manera dramática y contundente, desde la introducción de las drogas “de última generación”, que desintitucionalización dista mucho de ser un sinónimo de antipsiquiatría, los nuevos movimientos antipsiquiátricos arremeten directamente contra lo que es la esencia de esta nueva fase de la psiquiatría de siempre, la medicalización. Es por esto que necesita una mayor radicalidad en el plano más difícil de todos, el de objetar desde sus fundamentos lo que se presenta como “saber” psiquiátrico.


En esta disputa en el plano del saber, paralela, y también base, de la lucha por reivindicar derechos violentados, ha resultado extraordinariamente significativa la crítica desarrollada desde los años 60 por psiquiatras de orientación liberal, como Thomas Szasz (1920- ), Peter R. Breggin (1936- ) y Ronald Leifer, que han negado consistentemente la idea misma de que haya “enfermedades mentales”.


El texto pionero de Szasz, The Myth of Mental Illness: Foundations of a Theory of Personal Conduct[10], ha inspirado a generaciones de críticos justamente por su radicalidad, y ha sido, de manera correspondiente, descalificado de manera violenta muchas veces por las autoridades oficiales de la psiquiatría. A pesar de que su postura, extrema y beligerante, no representó a la mayoría de los antipsiquiatras clásicos (ni Laing, ni Basaglia, ni siquiera el marxista Cooper, se sintieron identificados con ella), se lo ha mostrado durante cincuenta años como paradigma de toda la antipsiquiatría. Hoy es posible ver, en una situación nueva, manteniendo diferencias y matices, que quizás sus tesis sean ahora incluso más aplicables que cuando fueron publicadas. Podría ser materia de controversia que las personas que escuchan voces, o tienen alucinaciones, puedan ser diagnosticadas o no como “locos”. Seguramente Hearing Voices estaría en un polo de esta controversia y la APA en el polo opuesto. Lo que es muchísimo menos controversial, en cambio, es la ampliación del estigma “trastorno mental” hasta incluir límites inverosímiles, como los que están proyectados para incluir en el DSM-V. La tesis eventualmente extrema de Szasz, a principio de los 60, ha llegado a ser superada por la propia realidad: hoy más que nunca es posible sostener que la idea de enfermedad mental, en la enorme mayoría de los casos diagnosticados, es simplemente un mito.


Pero si se lee la tesis de Szasz de una manera algo más compleja, es posible hacer también otra consideración, en defensa de su plena vigencia. En realidad la noción de “enfermedad mental” contiene dos términos, y el mito aludido podría referirse a las connotaciones que se producen al juntarlos. Si es así, el que no haya “enfermos mentales” no tendría por qué significar que no haya “locos”. El asunto es más bien si el estado al que llamamos locura puede o no ser asociado a los contenidos que conlleva el término médico “enfermedad”. Es cierto que hay personas que están manifiestamente “locas”, lo que no es cierto es que estén “enfermas”, y es nocivo tratarlas como tales. Esa es la línea argumental que seguiré en este libro.


La radicalidad de Szasz, contemporánea de la antipsiquiatría clásica, y beligerante hasta hoy, cuando cumple ya noventa años, es paralela a la de Peter R. Breggin, que hasta 1972 trabajó a su lado.[11]


Desde principios de los años 60 Breggin ha mantenido una incansable campaña de crítica y denuncia contra las teorías que atribuyen un origen biológico al trastorno mental y sus consecuencias. Ha sido uno de los detractores más sólidos del electroshock y del enorme auge de las drogas psicotrópicas. Ha denunciado los compromisos de muchas autoridades de las asociaciones y organismos oficiales de la psiquiatría norteamericana con la industria farmacéutica. Y es hoy uno de los principales críticos del uso masivo de metilfenidato (Ritalín) para medicar de manera injustificada a millones de niños.


En la misma línea, a la vez en el plano psiquiátrico y político, está la crítica del psiquiatra Ronald Leifer, también discípulo de Szasz, a lo que él llama “Estado Terapéutico”, es decir, al uso de la psiquiatría como discurso ideológico en el contexto del auge del totalitarismo en los países que se precian de más “democráticos”. Una crítica que está en consonancia con las tesis de Michel Foucault, pero formulada desde una perspectiva liberal democrática.[12]


La radicalidad de esta crítica al significado político de la psiquiatría hecha en Estados Unidos, a diferencia de las hechas en Francia, no sólo proviene de psiquiatras más que de filósofos, sino que está arraigada en la disputa en torno al saber psiquiátrico mismo, y sólo desde allí parte hacia la consideración de sus consecuencias sociales. Esto ha generado una preocupación especializada y técnica por las bases que se proclaman para las teorías y soluciones terapéuticas en boga. No sólo han argumentado que la idea de enfermedad mental es inconsistente y vacía en general, sino que han mostrado los vicios, las consecuencias negativas, la falta de fundamento, de las terapias usadas en la corriente hegemónica de la profesión, y han promovido el ensayo de alternativas más humanistas.


Esta labor pionera de crítica en el centro mismo de la profesión, desarrollada por Szasz, Breggin y Leifer desde los años 70, ha conducido a una nueva generación de críticos, en los 90, principalmente en Estados Unidos e Inglaterra, cuyo eje de argumentación ha profundizado la discusión, ahora en el nivel científico y técnico, sobre todo en torno al desmesurado crecimiento de la medicamentación, que se ha impuesto en los últimos treinta años como técnica estándar, y de primer uso, en prácticamente todos los cuadros de trastorno del comportamiento que llegan a manos de los psiquiatras.


El neurólogo y psicólogo Elliot S. Valenstein (1930- ) ha contribuido, en una serie de libros, a trazar una valiosa y muy detallada historia de los principales delirios terapéuticos de la psiquiatría del siglo XX, como la lobotomía, las terapias a través de la inducción de comas por sobredosis de insulina y el electroshock, mostrando su enorme violencia y los increíbles grados de arbitrariedad teórica y práctica con que fueron creados y administrados. Y, en un giro que lo pone al centro de la polémica actual, ha descrito el polémico origen de la teoría actualmente aceptada según la cual los trastornos del comportamiento tendrían su origen en un “desbalance químico” en los neurotransmisores que operan en el cerebro.


Irving Kirsch (1943- ) ha investigado en los informes que las propias compañías farmacéuticas presentan ante la Foods and Drugs Administration (FDA) para hacer legales los fármacos que lanzan al mercado estadounidense, mostrando que los “antidepresivos” más vendidos actualmente son clínicamente indistinguibles de los placebos en casi todos los ensayos clínicos previos.


Joanna Moncrieff ha elaborado un punto de vista teórica y técnicamente distinto del oficial respecto de los mecanismos de acción de las drogas psicotrópicas, mostrando que su efecto real sólo enmascara los síntomas, sin remitirlos realmente, ni producir efecto curativo alguno.


John Read (1956- ) y Richard Bentall (1956- ) han investigado la historia de las dificultades diagnósticas y la múltiple arbitrariedad con que se han enfrentado los cuadros clínicos que se suelen llamar “esquizofrenia”, mostrando que se trata de una categoría vacía, a la que se han atribuido toda clase de rasgos sintomáticos, y sobre la cual se han ensayado las teorías y terapias más increíbles, sin que se haya conseguido a partir de ellas ninguna mejora significativa y estable en el estado de salud de quienes supuestamente la padecen.


Varios equipos de investigadores críticos han examinado los errores metodológicos, los fraudes evidentes, y la publicación selectiva e interesada de los resultados en las investigaciones a través de las que las compañías farmacéuticas pretender fundamentar y avalar las drogas que promueven a través de millonarias campañas publicitarias. Otros han investigado estas mismas campañas mercantiles, y la distorsión que producen en la percepción que el público general tiene de las alteraciones del comportamiento y del efecto de las drogas psiquiátricas. Y se ha investigado también, en la misma línea, los enormes fondos que estas mismas compañías ocupan en financiar congresos de psiquiatría y neurología, revistas especializadas, investigaciones universitarias, campañas en el campo educacional, con el propósito común, e incluso explícito, de promover sus productos.


Detallaré cada una de estas investigaciones y el contexto polémico en que se desarrollan, indicando en cada caso el máximo número de referencias bibliográficas posibles, en los capítulos que siguen. Lo importante de esta enumeración simple ahora es constatar que desde la acción política de usuarios y sobrevivientes, desde la crítica en el plano científico y técnico, desde la denuncia de la mercantilización del sufrimiento y sus efectos sociales, una nueva y radical antipsiquiatría está emergiendo.


Yo creo que su auge está relacionado con la repolitización general que ha producido la crisis de las euforias del neoliberalismo. Quizás con mayor profundidad que en los años 60, esta nueva antipsiquiatría forma parte ahora de una enorme y difusa oposición a la dominación imperante que surge desde todos los ámbitos en que la vida está en juego.


Como se verá, este libro procura ser por un lado un recuento y por otro un aporte a esta amplia lucha, y a sus posibilidades. Su función es más bien abrir discusiones y generar polémicas, sobre todo en este país, tan tristemente “modernizado” y deshumanizado por el neoliberalismo del arco iris, y que tolera apenas su pobre orgullo de ser vanguardia de la mercantilización de la vida a costa de alergias, insomnio, depresión y colon irritable, y las infaltables pastillas, que han llegado a ser consideradas como un componente normal de la vida cotidiana.


Por supuesto, su intensión polémica en este ámbito clave, en que se cruzan subjetividad y política, debe ser considerada como un aspecto del proyecto político marxista más amplio que he desarrollado, ¡ay!, demasiado lentamente, en el resto de mis libros.

UNA2::Introducción: Antipsiquiatras clásicos y de nuevo tipo::55/es

I. Argumento General: Psiquiatría y Modelo Médico

La medicalización del sufrimiento, incluso del malestar cotidiano, ha llegado a ser una realidad políticamente significativa en nuestro país. Que en el cruce de dos calles haya hasta tres farmacias, que las farmacias estén llenas, que las colusiones de precios entre las empresas que las controlan de manera casi monopólica pasen rápidamente al olvido, ha llegado a ser algo completamente habitual. Como también se ha convertido en una realidad cotidiana que no sólo los psiquiatras sino también muchos otros profesionales médicos, como ginecólogos, gastroenterólogos, dermatólogos, receten de manera habitual fármacos que afectan al sistema nervioso, bajo la idea de que a través de ellos podrían aliviar, e incluso curar, síntomas que se han convertido en una omnipresente compañía cotidiana, como las alergias, los malestares gástricos, las dificultades del sueño, las ansiedades del embarazo, el cansancio elevado a la condición misteriosa de “estrés”. Incluso, más allá, la medicalización se ha extendido a los psicólogos, los orientadores de colegio, los terapeutas familiares, que remiten habitualmente a las personas que atienden a la consulta del psiquiatra, que hace el oficio de “contener” a los “pacientes” con fármacos, mientras se realiza, en paralelo, una intervención más dialogada, e interactiva.


Como expondré a lo largo de este texto, la medicalización de los procedimientos para abordar una situación problemática consiste en reducir los aspectos del problema a categorías médicas, en general a través de teorías que mostrarían su origen biológico y su eventual peligrosidad en términos de “salud”, “enfermedad”, y sus correlatos lógicos “terapia”, “curación”. La consecuencia inmediata de esta reducción es el cambio de las preocupaciones del afectado desde el ámbito de su voluntad, de su autonomía o la capacidad de acción propia o entre sus pares, a una esfera en que resulta dependiente de la opinión de “expertos” que le diagnostican males orgánicos y le ofrecen tratamientos farmacológicos. Los expertos convierten sus dolencias en cuadros clínicos e incluso, muchas veces, preclínicos, que requerirían de intervención técnica especializada para situaciones que le ocurren de manera actual o futura. Por esta vía se ha promovido un verdadero adelantamiento diagnóstico para promover el tratamiento farmacológico de condiciones que sin ser por sí mismas enfermedades podrían convertirse en una, como la hipertensión o los niveles elevados de colesterol o, también, se han convertido en situaciones médicas estados que, por sí mismos, no lo son en absoluto, como el embarazo o la vejez.


A pesar de que el problema general de la medicalización merece un tratamiento específico y propio, el argumento central que desarrollo en este texto está referido en particular a la medicalización que se ejerce sobre las alteraciones del comportamiento o, también, para decirlo de una manera más profunda, el tratamiento médico de las dificultades que se presentan en el ámbito de la subjetividad. Del reconocimiento, en principio positivo y útil, de que toda alteración de la salud va acompañada de alteraciones correspondientes en el ánimo y el comportamiento, se ha pasado sin más a la idea de que esas alteraciones del ánimo son, por sí mismas un asunto médico, con lo que no sólo la presencia de la profesión médica se extiende hasta prácticamente todos los ámbitos de la vida cotidiana sino que, también, a la inversa, se ha creado de manera artificial una demanda desde los propios ciudadanos que se ven ahora empujados a recurrir a la asistencia médica a propósito de cualquier tipo de alteración en el curso de sus vidas. La dimensión psicosomática de las afecciones físicas se extiende hasta convertirla en una variable médica por sí misma, oscureciendo completamente sus raíces intersubjetivas, sociales e históricas. La tristeza, la soledad, la falta de habilidades sociales, la capacidad de ensoñación, la curiosidad e inquietud calificadas de “excesivas” y, desde luego, la rabia, la rebeldía, la resistencia a aceptar los patrones conductuales adecuados al consumo y la sobreexplotación, se convierten de pronto en “enfermedades”, o en pre-enfermedades, en cuadros diagnosticables a través de categorías clínicas que requerirían tratamientos, directos o preventivos, de tipo médico. Para lograr esta conversión se ha constituido una práctica en que se tiende a caracterizar cada uno de estos estados a través de sus manifestación extrema (la tristeza es llamada “depresión”, el dolor común es llamado “duelo”, la inquietud infantil es llamada “hiperactividad”, la capacidad de atender simultáneamente a varios estímulos “déficit atencional”), a través de escalas de apreciación completamente vagas que facilitan un verdadero escalamiento diagnóstico, que convierte a un indignado en un inadaptado, a este inadaptado en una persona bipolar y, por supuesto, a esta tendencia bipolar en la manifestación de una alteración “endógena”.


Las consecuencias políticas de la generalización de esta situación son evidentes. Ante la sobreexplotación, ante las nuevas formas de cansancio que producen los medios tecnológicos avanzados, ante una vida atravesada de exitismo, competitividad, condiciones laborales extremas, los ideologismos dominantes parecen decirnos, por todos lados, “el problema es suyo, no es del sistema, no es del entorno, es suyo” (individualización). Pero, en seguida, puesto el problema en nosotros, nos dicen “su problema es ‘psicológico’ ”, en el sentido banal de que aparece sólo en virtud de una mala apreciación de la realidad, de una percepción defectuosa, que por supuesto es culpa nuestra, de nuestras posibilidades (psicologización). Pero si insistimos, si el problema y sus síntomas persisten, nos dicen “lo que ocurre es que su problema es ‘endógeno’ ” (naturalización). Problemas que tienen un evidente origen y carácter social y político en primer término resultan invisibles (“no son esa clase de problemas”), en segundo lugar diagnosticables (“se trata de problemas médicos”) y, por supuesto, “tratables” de manera farmacológica.


Junto a esta significación política, y de una forma completamente consistente, la medicalización del sufrimiento se ha convertido en un gigantesco negocio. En primer lugar para la industria farmacéutica, cuya influencia sobre los medios de comunicación, sobre la profesión médica, sobre las autoridades de salud ha adquirido todas las formas lícitas e ilícitas, hasta constituir un verdadero tráfico de enfermedades (disease mongering)[13], es decir, la promoción artificial en la opinión pública de alarmas en torno a supuestos cuadros clínicos o preclínicos preocupantes… para los que se cuenta de manera sospechosamente justa y oportuna con fármacos que permitirían abordarlos. Pero, también, toda la situación es un excelente negocio para lo que hoy se suele llamar sin rubor industria médica[14], es decir, los grandes hospitales y clínicas privadas, provistas de enormes capacidades de propaganda, de gestión, e incluso de investigación y desarrollo por cuenta propia. Y se extiende, más allá, a la profesión médica en general (que está comúnmente considerada entre las profesiones liberales más rentables), y a la de la enorme comunidad de investigadores en la ciencia biológica, que ha llegado a depender casi completamente de los fondos de investigación provenientes de las industrias farmacológicas y de la alimentación.


El significado político y económico de la medicalización, sin embargo, no puede ser la base y el fundamento de su crítica. Desde un punto de vista argumentativo estricto, perfectamente podría ocurrir que, aun teniendo este efecto político que consideramos nefasto, y estando apoyada en estos rendimientos mercantiles que nos parecen inmorales, la conversión médica del sufrimiento esté fundada en auténticos descubrimientos, en investigaciones médicas genuinas, que pueden mejorar sensiblemente las condiciones de alteración de las que se ocupan. Podría ocurrir aquí un verdadero paraíso liberal: la confluencia de los buenos negocios, el orden social y el mejoramiento continuo de las condiciones de vida. Y esa es, desde luego, la “buena consciencia” de la mayoría de los actores sociales involucrados (en particular, la del gremio médico), que pueden ejercer así su labor no sólo convencidos de que aportan más soluciones que problemas, sino incluso con una fuerte consciencia de “benefactores de la humanidad” que hace que cualquier objeción en torno a la situación general sea vista como irracional, como mezquina, como una disrupción motivada por oscuros intereses políticos… o por algún cuadro “endógeno” que encuentra en tales irracionalidades una manera de expresarse.


Para poder razonar de manera más o menos estricta en este campo, es necesario que sus consecuencias políticas y económicas aparezcan más bien como efectos que como causas. Es decir, que se muestre que la falta de fundamento propiamente científico de las pretensiones clínicas, sobre todo en el ámbito de la subjetividad, es el origen de hecho, sobre el cual pueden prosperar los intereses económicos y los usos políticos. O, de manera más precisa, que esa falta de fundamento científico es la que vuelve objetables e impugnables los usos imperantes en esta situación de medicalización, y vuelve objetables e impugnables el usufructo económico y los efectos disciplinantes que los poderes dominantes obtienen de ella.


Lo mejor es tratar de mantener la base de la argumentación en el plano de las situaciones objetivas y objetivables para, desde ellas, avanzar hacia un juicio moral y político. El procedimiento contrario se expondría a crear un argumento meramente ad hominem: la situación sería criticable sólo en virtud de los intereses y la moralidad de sus promotores. Pero este argumento ad hominem no es necesario. Ocurre que hay razones perfectamente objetivas que permiten criticar todas y cada una de las tendencias que he enumerado. Razones que, además, están sustentadas en la misma clase de argumentos que los promotores de la medicalización de la vida aceptan como válidos, es decir, en el examen científico de las evidencias disponibles, y en la estimación científica de sus posibilidades reales. El argumento general que me interesa defender, entonces, es en primer lugar interno: la medicalización de sufrimiento cotidiano carece de las bases científicas que proclama.


Es sobre esa base que avanzaré en el texto, luego, hacia dos ámbitos propiamente políticos. Uno, que es el que me parece más útil y urgente, es el de las recomendaciones prácticas en el ámbito de las situaciones cotidianas, que puedan ser un aporte, ahora y ya, para los miles y miles de niños, ancianos, embarazadas, oficinistas sobreexplotados, mujeres discriminadas, que han sido llevados de manera artificiosa e interesada a creer que sus sufrimientos tienen un origen orgánico y que pueden ser aliviados o resueltos a través de fármacos que afectan al sistema nervioso. Esta política, la de la vida cotidiana, es hoy una verdadera condición para aquello que habitualmente se ha entendido como política. Este es el sentido profundo que anima a todo este texto: no habrá política crítica real, en cualquiera de sus ámbitos, mientras persista esta situación de verdadera destrucción progresiva de las bases psíquicas que, en cada uno, hacen posible una ciudadanía consciente. Contra la destrucción de la autonomía de los ciudadanos, que es probablemente el hecho político central en nuestros días. Ese es el propósito de fondo de esta argumentación.


Para hacer esto hay que internarse en campos poco habituales para la discusión política común. Hay que enfrentar la pretensión de saber del gremio médico, desde sus propios criterios acerca de cómo se funda el saber. Pero, además de esta necesidad de proceder desde una argumentación rigurosa, hoy en día esto resulta necesario por otra razón, inédita pero no inesperada: la demanda, de parte de los propios afectados, de que se les ofrezcan argumentos respaldados científicamente. La hegemonía y legitimidad del punto de vista médico ha alcanzado niveles tales entre los ciudadanos comunes, que surge entre ellos mismos, aun siendo afectados, aun sufriendo las consecuencias, la demanda de ser atendidos a través de fórmulas médicas, y una resistencia correlativa a las razones que puedan contravenir lo que les ha llegado a parecer evidente. Esto produce una situación muy práctica y muy concreta en las discusiones con los ciudadanos comunes, que son y deben ser los destinatarios de cualquier política: no escaparán a la lógica médica en que han sido involucrados a partir de argumentos simples e inmediatos en torno a su trasfondo político o los intereses económicos en juego. Aunque sepan que son víctimas de una industria atroz, ávida de lucro, aunque sepan que la consecuencia cotidiana es reintegrarlos a las situaciones de sobreexplotación que los agobian, los afectados suelen tener la firme convicción de que tales terapias y fármacos los ayudan a sortear situaciones concretas e inmediatas y que, a mediano plazo, podrán ayudarlos a resolverlas. Es por esto que lo que es urgente mostrar, de manera inversa, es que no sólo no hay base científica válida para las teorías que se les aplican sino, también, que en términos puramente médicos la apuesta por la medicalización conlleva riesgos que no compensan en absoluto a los eventuales beneficios, y produce trastornos similares o peores que aquellos que dice poder aliviar.


Es por esto que he escogido empezar mi argumentación directamente, en el capítulo segundo, desde el ámbito médico. El problema general es si hay base científica suficiente para sostener que las alteraciones del comportamiento pueden ser consideradas y tratadas como enfermedades. Desde luego esto requiere de una consideración previa en torno a qué es lo que se puede llamar “enfermedad”. He abordado este asunto desde un punto de vista epidemiológico, especificando, entre la amplia diversidad de situaciones que han sido consideradas de esta manera, lo que podría considerarse como paradigma de la medicina científica, desde mediados del siglo XIX en adelante. Es decir, especificando de la manera más precisa posible lo que habitualmente se llama modelo médico. Un modelo en torno al cual pueden adquirir sentido las expresiones correlativas asociadas: salud, terapia, curación, causas.


El modelo médico de enfermedad es, por supuesto, una construcción teórica que, como tal, se ajusta de manera variable a la complejidad de la realidad empírica. Es por esto que examino, a continuación, sus variantes, las situaciones problemáticas que encierra, los criterios prácticos que surgen de ellas. La distinción entre medicina curativa, preventiva y paliativa, surge de manera natural de esas consideraciones. Y, también de manera natural, las consideraciones éticas y prácticas acerca de la precedencia que es razonable mantener entre ellas.


En este capítulo segundo, dedicado a estas cuestiones médicas, he abordado también el problema de la medicalización en general, como exceso sobre los criterios que el modelo médico permite establecer de manera razonable, y el de los intereses económicos que se mueven en torno a ella. Esta derivación, en ese lugar, debe entenderse como provisoria, y sólo está incluida allí porque en el capítulo siguiente el argumento se mueve hacia algo mucho más específico, que es el propósito directo de este libro. Sólo retomo el asunto de los intereses económicos y políticos al final, en el último capítulo, dedicado a ellos, según el orden argumental que he expuesto previamente.


El modelo médico de enfermedad requiere que, para caracterizar una alteración de esa manera, se puedan observar de manera directa e independiente tanto las causas que la producen como el mecanismo a través del cual opera, y no sólo los efectos o síntomas que la delatan. Como el propósito específico de este libro es criticar la aplicación del modelo médico a las alteraciones del comportamiento, en el tercer capítulo abordo lo que es presentado hoy en día como la fuente de las teorías psiquiátricas: la observación empírica del sistema nervioso. El problema aquí es especificar qué cosas son las que las técnicas de observación del sistema nervioso desarrolladas desde fines del siglo XIX permiten realmente establecer, y si esos resultados pueden correlacionarse de manera científicamente válida con la descripciones de estados subjetivos determinados. El examen quirúrgico, las tomografías de rayos X, el electroencefalograma, las tomografías a través de trazadores radioactivos, la resonancia magnética nuclear, son esas técnicas. Trataré de explicar brevemente en qué consisten, cuáles son sus variantes, las aplicaciones para las que resultan útiles, y sus límites respecto del examen eventual de la subjetividad.


El resultado general de las consideraciones que haré es el siguiente: no hay base científica alguna para la pretensión de que se podrían correlacionar estados específicos del sistema nervioso con aspectos o rasgos específicos de la actividad subjetiva.[15] Aunque se han establecido correlaciones específicas entre ciertas localizaciones cerebrales y la actividad muscular (frente a las cuales el sistema nervioso ha mostrado una altísima capacidad de reemplazo y relocalización), es altamente dudoso que haya localizaciones específicas de los procesos sensoriales y, mucho menos aún, para procesos cognitivos (como la memoria, la atención, o la capacidad de inferir). Y aunque en estos planos, que se suponen básicos, haya una discusión activa y en curso, para lo que no hay base alguna, en cambio, es para sostener localizaciones o mecanismos cerebrales específicos de rasgos de personalidad (como la agresividad, el liderazgo, la propensión a la depresión o el déficit atencional), y por consiguiente, aún menos, para cuadros clínicos enteros (como la esquizofrenia, el trastorno bipolar, o la depresión).


Si se considera que se nos informa habitualmente en los medios de comunicación que se podrían diagnosticar cuadros clínicos psiquiátricos directamente a través de una resonancia magnética nuclear, si se considera el énfasis y la seguridad extrema con que se enseña habitualmente en las universidades sobre la base orgánica de los cuadros de personalidad, se entenderá el aparente riesgo de hacer las afirmaciones que hago en este capítulo. Parece que se trata de algo que “todo el mundo sabe” y que algunos de nosotros desconocemos por simple ignorancia…o quien sabe por qué clase de intereses ocultos….


En este punto habrá que recurrir a las evidencias y, para llegar a ellas, a la literatura especializada. Incluso a la cualificación de las fuentes a las que podamos llamar “especializadas”. La línea de argumentación que mantengo está sostenida, por un lado, en la evidencia directa, que procede de la neurología científica actual y, por otro, de una consideración epistemológica de los avances que la neurología proclama. Hay bastante literatura al respecto, y muy accesible, debido a un asunto eminentemente práctico: la posibilidad de usar diagnósticos de tipo neurológico como atenuantes o agravantes de comportamientos criminales. La prueba “científica” de que alguien posee “predisposición neurológica” a la agresividad, o la pedofilia, o simplemente la mentira (los famosos “detectores de mentiras”), podrían cumplir un rol crucial en los juicios expertos que se requieren en toda acción penal. El estado de la discusión al respecto, sin embargo, es masivamente adverso a tales “pruebas”, y directamente contradictorio con las pretensiones perfectamente análogas del gremio psiquiátrico en casos sin connotación penal. El argumento mínimo suficiente en este caso tiene dos niveles: no hay evidencias científicas que permitan establecer tales correlaciones de manera estable y segura y, en un segundo plano, la discusión al respecto muestra las enormes dificultades de principio para llegar alguna vez a establecerlas.


Por supuesto este argumento, en torno a los fundamentos neurológicos, impacta directamente en lo que es hoy el centro de la profesión psiquiátrica. Sin embargo, antes de obtener todas sus consecuencias, es necesario mostrar que tiene amplias raíces en lo que ha sido la historia de la psiquiatría moderna. Esto es lo que abordo en el capítulo cuarto.


La Antipsiquiatría que ahora podemos llamar “clásica” siempre puso un particular énfasis en la idea de “abuso psiquiátrico”, señalando las dramáticas condiciones de vida en los manicomios, las prácticas de grueso etiquetamiento, de internación y medicación forzosa, las increíbles violencias a las que han sido sometidos los llamados “locos”, sobre todo en la modernidad. Y, a pesar de los intentos en contrario, la violencia de las situaciones señaladas parecía apuntar hacia una situación de abuso subjetivo, es decir, originado en una particular mala voluntad, en una inusitada crueldad, del gremio psiquiátrico, que actualizaría una crueldad general, una índole discriminadora general que atravesaría a la cultura moderna. Poniendo énfasis en la violencia y crueldad “irracional” de tales situaciones los argumentos adquirían un matiz ad hominem que permitía, curiosamente, salvar a la psiquiatría misma amparando sus culpas o en una culpa completamente genérica (se trata del carácter de la modernidad), o completamente particularizada (se trata de casos de crueldad individual, permitida socialmente, pero particulares).


Aceptando la valiosa contribución de estos estudios clásicos, los que hoy en día podríamos llamar “nuevos antipsiquiatras” centran su atención en lo que podría considerarse más bien como la “racionalidad” de las teorías y terapias psiquiátricas. Se trata de establecer, más bien, el carácter científico de tales intervenciones o, al menos, la profunda convicción de parte de los que las aplicaban, de que se trataba de procedimientos racionales, fundados en evidencias científicas. Se apunta así a lo que puede ser considerado un abuso objetivo, es decir, una situación de abuso que excede la particular voluntad, o las intenciones, buenas o malas, de quien lo ejerce. La figura del abuso objetivo apunta a despejar la acusación ad hominem, y centrar la atención sobre los méritos o defectos objetivos de los procedimientos, suponiendo incluso un fondo de buena voluntad y de genuina preocupación por la salud o mejoría de los usuarios afectados. O, también, para decirlo de un modo más directo, se trata de evaluar la responsabilidad de los agentes implicados más que, a priori, sus abusos.


Cuando se examina la historia de la psiquiatría moderna, como lo hago brevemente en este cuarto capítulo, lo que se constata es la constante convicción del gremio psiquiátrico de que opera de acuerdo a procedimientos científicos, racionales, fundados en la observación y el experimento. Pero se constata, también, una curiosa constante: tras cada supuesto avance en la lógica científica de las teorías y terapias aplicadas, se proclama pomposamente, de manera grandilocuente, que por fin se ha superado el irracionalismo, la metafísica, la simple superchería… y el abuso. De esta manera, los fisiólogos de fines del siglo XIX, apasionados por la actividad eléctrica del sistema nervioso, redujeron a la irracionalidad a la teoría de los humores que los precedió, los partidarios del “tratamiento moral” estigmatizaron los castigos físicos sólo para volver a usarlos “de manera racional” en el contexto de técnicas más “psicológicas”, los partidarios de las teorías degenerativas (muy celebradas en su momento) fueron luego estigmatizados como totalitarios por los adversarios de la eugenesia, los defensores de la lobotomía fueron calificados de abusivos por los que consideraron muy superior lo que ellos mismos llamaron “lobotomía química” y, por fin, los actuales defensores de los fármacos “de última generación”, no vacilan en calificar de infundadas y abusivas la terapias basadas en los fármacos que son sus propios precursores. Como se ha señalado con frecuencia, la psiquiatría es una ciencia que parece permanecer en un eterno presente: cada una de sus épocas se ve a sí misma como una verdadera fundación, sin que se pueda señalar una historia medianamente coherente de progresos, o de avances acumulables, como ocurre rutinariamente en todas las ciencias.


Lo más alarmante en estas consideraciones históricas, es que, después de siglos de toda clase de intentos, algunos de una brutalidad realmente espantosa, sobre miles y miles de seres humanos, la psiquiatría no puede exhibir, hasta el día de hoy, ningún caso de auténtica curación de los males que diagnostica con ánimo invariable de seguridad y certeza. En un contraste evidente, y violento, con cualquier otra especialidad médica, en que los avances se pueden establecer de manera clara y acumulativa, los usos y procedimientos psiquiátricos no pasan, hasta hoy, de los patrones de la medicina paliativa, dedicada al alivio de los síntomas, y se muestran completamente incapaces de alcanzar los estándares de la medicina preventiva, y menos aún de la medicina curativa. Hasta hoy, se sigue considerando un éxito mantener a las personas calificadas de “psicóticos” en el encierro, y lo que se proclama como avance no es sino el que ese encierro es ahora de carácter químico, y opera directamente en su sistema nervioso, evitando así el encierro físico, que ahora se estigmatiza como recurso extremo, o como innecesario. La historia de esta incongruencia objetiva y reiterada entre las pretensiones médicas del gremio psiquiátrico y la notoria debilidad de sus resultados, que se extiende ya por siglos, es el contexto real en que debe ser evaluada a la generación actual de psiquiatras, tan entusiasmados con las drogas “de última generación”.


Pero, como fundamento de este contexto, el problema efectivo se mantiene. El asunto de fondo es, directamente, si el modelo médico de enfermedad es aplicable o no a las alteraciones del comportamiento. Esto es lo que trato en el capítulo quinto.


De acuerdo a ese modelo médico, para establecer a una enfermedad como tal deberíamos ser capaces de señalar de manera directa e independiente sus causas, el mecanismo a través del cual opera y los síntomas diferenciales en que se expresa. En el caso del comportamiento, en principio, y de manera general, parece que esto podría hacerse: las causas hay que buscarlas en el sistema nervioso, el mecanismo en los efectos que la anatomía y fisiología del sistema nervioso tendría sobre la actividad mental, base de las manifestaciones subjetivas que se pueden observar a través de la conducta. Una formulación simple, que parece obvia en general, pero llena de dificultades cuando se la examina punto a punto, de manera específica.


Estas dificultades han dado origen a dos maneras de ejercer el modelo médico. Uno se funda en la correlación entre lo observado en el sistema nervioso y lo que se observa en el comportamiento, “saltándose” de esta manera el paso por la “actividad mental”, que se considera un término sospechoso de metafísica. Este modo, fundado en la neurología, es el predominante en la profesión, y el que se ha convertido en hegemónico sobre la opinión común. El otro modo funda sus diagnósticos y procedimientos terapéuticos en una amplia teoría de la actividad mental, correlacionándola con el comportamiento, suspendiendo, de manera inversa a la otra, la base neurológica que, en todo caso, no se niega. Esta alternativa es, sobre todo, la que representa la tradición psicoanalítica.


En este libro he centrado mis críticas en la psiquiatría de orientación neurológica, es decir, la que se presenta directamente como oficio médico. La crítica de los procedimientos psicoanalíticos, que sólo hago de manera marginal, resulta hoy netamente menos urgente al menos por tres clases de razones. Primero por la convergencia posible entre ambas orientaciones, que no son, en absoluto incompatibles. La modalidad más común es la de una medicamentación que opera para “contener” a un paciente, de manera paralela y correlativa a una terapia dialogada, centrada más bien en asuntos relacionales que en las presuntas bases neurológicas del mal. En segundo lugar porque las terapias psicoanalíticas son en general caras y engorrosas para los pacientes (y cuando son baratas y simples… simplemente no son psicoanalíticas), por lo que su incidencia en la profesión ha retrocedido netamente ante el avance triunfal de la farmacología. Y, bueno, en tercer lugar… porque son simplemente indistinguibles de un placebo, por lo que, casi siempre, resultan útiles de manera obvia, es decir, una utilidad que podría haberse obtenido sin ellas, o meramente inocuas, es decir, sin ningún resultado claramente evaluable, ni positivo ni negativo.[16]


El problema real, el que es necesario abordar, es el modelo psiquiátrico que busca sus fundamentos en el saber neurológico. Para esto lo que hago es examinar sus dificultades en los tres ámbitos del modelo médico: la falta de un conocimiento real de las supuestas causas neurológicas de las alteraciones del comportamiento; la extraordinaria debilidad de los procedimientos diagnósticos a nivel conductual y la simple inexistencia de marcadores diagnósticos en el nivel fisiológico, orgánico; y la debilidad profunda, que se mantiene a lo largo de toda la filosofía moderna, de la idea de que la “actividad mental” sería una entidad susceptible de ser investigada a través de los procedimientos científicos. La debilidad conjunta, en los tres ámbitos, tiene, por supuesto, un efecto directo sobre las pretensiones terapéuticas: las alteraciones del comportamiento no pueden ser consideradas como enfermedades, las terapias que se siguen de hacerlo son como mínimo riesgosas y, demasiado frecuentemente, empeoran globalmente las situaciones que pretenden aliviar de manera local.


Los riesgos que examino, desgraciadamente frecuentes, son el escalamiento y la circularidad diagnóstica, la extrema debilidad en la validación científica de los procedimientos basados en medicamentos, la abundante experiencia acumulada en torno a los graves efectos secundarios de los medicamentos que afectan el sistema nervioso, el grave escalamiento terapéutico que se sigue del intento de abordar, o simplemente ocultar, esos efectos secundarios.[17]


Un caso típico: un niño que se encuentra sometido a la separación de sus padres, y que expresa sus ansiedades a través de una inquietud poco habitual, o de una baja en su rendimiento escolar, es diagnosticado como sufriendo “síndrome de déficit atencional acompañado de hiperactividad”. Este diagnóstico, sancionado por un psiquiatra, ha sido sugerido por los antecedentes aportados por sus profesores, o por sus padres, y puede estar basado en algo tan simple como una tabla de cotejos que contiene no más de una docena de ítems. El psiquiatra prescribe medicamentación: metilfenidato (la marca comercial más común es Ritalín). Tras la administración diaria de este fármaco el niño empieza a manifestar ansiedades nuevas, de pronto surgen en él miedos que no tenía, acompañados de bruscos cambios de ánimo y desbordes emocionales. De manera frecuente van acompañados de dificultades y trastornos del sueño. El psiquiatra considera que estos nuevos síntomas en realidad expresan un cuadro subyacente que ha “aflorado”, a propósito de las complicaciones actuales. Este cuadro puede ser una predisposición a la depresión, al síndrome bipolar o, incluso, a la esquizofrenia. Receta un fármaco para que el niño pueda dormir que, como es contradictorio con el primero, que atendía el déficit atencional, requiere un tercer fármaco “para despertar”. Los síntomas negativos empeoran, por lo que el psiquiatra considera que el cuadro subyacente ha terminado por manifestarse… y receta un fármaco, ahora para atender este, que sería el problema de fondo. Pero el niño no hace sino empeorar. Sus padres, sumidos en sus propios conflictos, no siempre le administran los medicamentos, o creen poder suspenderlos a propósito de períodos de vacaciones, o de que el niño parece haber superado ciertos aspectos de sus dolencias. Pero estas suspensiones provocan nuevos y alarmantes síntomas: alucinaciones, ideaciones suicidas. Para el psiquiatra el conflicto subyacente está en el apogeo de su manifestación. En este punto todos los excesos se hacen posibles: el niño podría ser internado de manera preventiva, podría ser declarado abiertamente como esquizofrénico, podría ser sometido a electroshock (terapia electroconvulsiva)… sin que en ningún momento de toda esta tragedia el psiquiatra se ponga, en lo más mínimo, ante la posibilidad de que sean los propios fármacos los que han producido todo ese escalamiento. El diagnóstico, el tratamiento y el pronóstico psiquiátrico se hacen completamente circulares. Una vez ingresado a esta lógica médica todo parece conducir a su agravamiento, y a la confirmación del sesgo sistemático con que ha sido introducida. Una situación cotidiana, una tragedia cotidiana, para miles y miles de familias. Las estadísticas indican que hoy en día hay ¡millones! de niños sometidos a la medicamentación con metilfenidato, en abierto riesgo de caer en este escalamiento.[18]


Pero ocurre que, a pesar de lo que se suele creer, la gran mayoría de las situaciones que, según la opinión psiquiátrica imperante, parecen requerir de terapias farmacológicas, incluso muchas de las más extremas, pueden ser tratadas, y de hecho son tratadas de manera exitosa a través de enfoques alternativos. Lo que importa, en este texto, es el fundamento posible de tales enfoques en general. En el capítulo sexto, a través de una distinción entre “curación” y “disciplinamiento” introduzco la idea de un abordaje social de las alteraciones del comportamiento y, luego, en ella, la idea de que el problema de fondo en realidad es la secular incapacidad de la modernidad de reconocer y convivir con auténticas diferencias. Propongo la distinción entre “disciplinar desviaciones” y “validar diferencias” como eje no sólo de una alternativa al régimen farmacológico sino, de manera más general, al carácter de intervención disciplinante que ha sido tradicional en la intervención psiquiátrica. Sobre este fundamento propongo una serie de diferencias entre “terapia” e “intervención social” que permitan mantener de manera coherente, y en la práctica concreta, la tarea de una intervención reconocedora.


Sin embargo, por importante que sea la idea de una intervención social no terapéutica para los profesionales dedicados a la educación, al desarrollo y a la atención de personas que presentan alteraciones del comportamiento, subsiste un espacio de primerísima importancia: el de los usuarios particulares, involucrados ya en la lógica psiquiátrica, aquellos que encontramos cada día, en nuestras relaciones cotidianas, en contextos no profesionales, y en los que somos testigos del aislamiento, la psicologización artificiosa y la naturalización de sus problemas subjetivos, con la consiguiente dependencia terapéutica que han contraído respecto de tratamientos farmacológicos. Es por esto que he dedicado el último apartado del sexto capítulo a cuestiones más inmediatas en el orden práctico. En primer lugar las recomendaciones razonables que pueden ser dirigidas a los usuarios directamente, o a sus personas cercanas, en particular los padres de niños “problemáticos”, que ya se encuentran en este tipo de situaciones. Luego las recomendaciones más generales en torno a usos cotidianos que pueden ayudar a mejorar de manera sustantiva nuestra relación con las tentaciones y ansiedades a que nos enfrenta la industria médica y farmacológica. El tenor general de estas recomendaciones es mantenerse en la razonabilidad común, aquella que surge de lo que en otro texto he llamado sentido común ilustrado.[19]


En realidad el principio general que anima a cualquier recomendación práctica en este ámbito es fácil de resumir y de formular: el estado actual del saber científico en torno al sistema nervioso no permite una garantía suficiente, ni siquiera razonable, para el efecto de los tratamientos farmacológicos que se aplican a alteraciones del comportamiento. O, también, de manera aún más directa: los riesgos posibles, muchos de ellos bien documentados, no compensan en absoluto a los eventuales beneficios.


En la argumentación más detallada, que presento en el capítulo sexto, sostengo que este principio se puede cualificar y especificar mejor cuando se compara la acción de un fármaco en el nivel de sus efectos globales con sus efectos locales, o cuando se compara la acción de esos efectos para la persona que los experimenta con lo que se produce en su entorno: los eventuales beneficios locales no compensan en absoluto los riesgos globales; los eventuales beneficios para el entorno de la persona ni justifican ni compensan los riesgos y eventuales daños sobre la persona misma. Por supuesto, hay importantes cuestiones de ética médica que surgen de inmediato ante una argumentación de este tipo. En el abordaje que hago al respecto sostendré que quizás el asunto se puede resolver antes de una confrontación ética en el curso de la cual se pueda llegar a un empate valórico insuperable. Antes del debate valórico es necesario preguntarse si las evidencias razonables disponibles logran justificar realmente, de una manera medianamente objetiva, la alternativa farmacológica. Mi respuesta es que no lo logran.


Pero la discusión en torno a la conveniencia de aceptar las terapias psiquiátricas basadas en un enfoque farmacológico debe contar, además, con otra variable: de hecho existen y se aplican enfoques alternativos, y se cuenta con evidencia razonable en torno a su eficacia. La opción entonces no es entre los dictámenes de la corriente principal de la psiquiatría y simplemente la impotencia o la nada. En la misma práctica profesional de la psiquiatría se han formulado y aplicado métodos que no representan el riesgo que el enfoque farmacológico entraña, y que logran éxitos que se pueden mostrar como relativamente satisfactorios respecto de las situaciones que abordan. Si formulamos nuestro principio de prudencia considerando esto el asunto se presenta así: habiendo alternativas, no es razonable escoger el sistema que representa más riesgos y menos beneficios, tanto en el nivel personal como sobre el contexto, y tanto en la salud global como respecto del problema de “salud” específico que se quiere tratar.


Sólo entonces, expuestas todas las circunstancias y polémicas anteriores, puede existir una base suficiente para el alegato contra los efectos políticos de disciplinamiento social que atraviesan las prácticas psiquiátricas y médicas hegemónicas. Este fundamento permite que la crítica se mueva no sólo en el espacio de las opciones filosóficas y valóricas, que ciertamente son cruciales, sino que pueda esgrimir además cuestiones perfectamente objetivas, o en las que operan principios de razonabilidad común. Ahora, sobre esta base, sostengo una crítica política radical de la medicalización de la vida como modo específico de la operación del dominio social hegemónico. Como su recurso de alta tecnología, como mecanismo que permite encubrir la sobreexplotación, y anular a la misma tarea crítica, bajo los ideologismos, falsamente objetivos, contenidos en “diagnósticos” y “terapias”, bajo el ideologismo central según el cual se podría representar y comprender los problemas sociales y políticos a través de categorías médicas.


En el sexto capítulo, desarrollo los principios de esta crítica radical, y los relaciono con el contexto más amplio de la crítica a los nuevos mecanismos de dominación propios de las sociedades altamente tecnológicas. Por un lado su plena consistencia con la lógica capitalista, a través del usufructo despiadado de la industria médica y farmacéutica, que no reparan en lucrar a partir del dolor humano, ni siquiera en prolongarlo artificialmente para maximizar su avidez. Por otro lado su conexión con la lógica de legitimación burocrática, que ya no se ampara en los principios de la libertad y autonomía liberal, propias del capitalismo, sino que busca arraigarse en una profunda negación de la autonomía psíquica de los ciudadanos, y ejercer sus ideologismos “protectores” a través de la pretensión de saber. En este plano, aquí, mantengo una argumentación específica, referida al asunto de este libro. Para entender el contexto teórico general desde el cual emprendo esta crítica, e incluso el proyecto de fondo de este mismo libro, ruego al lector acudir a los textos que he dedicado a ello.[20]


Los argumentos desarrollados en este libro están ampliamente basados en los aportes de una nueva generación de antipsiquiatras que, desde los años 90, recogiendo y siguiendo la herencia de la antipsiquiatría de los años 60, han ampliado el campo de sus reflexiones e intervenciones hacia una crítica del modelo médico en psiquiatría que, como he expuesto, tiene hoy repercusiones muchísimo más generales que el ambiente de los asilos y manicomios clásicos contra los que ellos lucharon. Justamente esta preocupación por arraigar la crítica en una confrontación directa con las pretensiones de saber del gremio médico proviene de ellos. Y también el estilo, dados los usos de la práctica “científica” institucional, que consiste en ir ofreciendo referencias a cada paso, en lo posible elaboradas desde la misma lógica científica en que la corriente principal de la psiquiatría actual pretende amparar sus abusos objetivos. Es por esto que ofrezco, como un capítulo final, una bibliografía brevemente comentada, con el máximo de referencias y con las indicaciones necesarias para hacer lo más directo y fácil posible su acceso.


Una de las características más notables de esta nueva antipsiquiatría, junto a su ánimo de desafiar al saber médico establecido, es que en su mayor parte, en sus iniciativas más amplias y sus reflexiones más interesantes, se trata de un movimiento de usuarios y exusuarios de los servicios psiquiátricos. A pesar de la importante presencia de destacados psiquiatras que aportan su saber crítico, y que de modo inevitable se convierten en sus voces más estables y citadas, estos intelectuales no ocupan ya, como en los años 60, una posición de vanguardia, al servicio de una minoría discriminada y maltratada sino, más bien, una posición de compañeros de ruta, con elementos y sistematizaciones teóricas que ofrecer, respecto de movimientos de ciudadanos que por sí mismos reclaman su derecho a ser considerados de una manera más humana. Del extremo representado por el asilo se ha pasado a la masiva protesta de miles y miles de víctimas de la discriminación psiquiátrica, y de sus atroces nuevas formas de encierro. Una bibliografía comentada, en estas circunstancias, es algo muchísimo más importante que un prurito de rigor o vanidad académica, es un gesto político básico: con quién contar, a quién acudir, dónde encontrar razones y maneras de actuar que nos ayuden, que amplíen y refuercen la lucha contra estos horrores que ahora, entre nosotros, experimentamos tan directa y cotidianamente.


Las estrategias y convicciones de estos movimientos de usuarios son muchas, y cubren prácticamente toda la gama y variedad que presentan los nuevos movimientos sociales, como los colectivos feministas radicales, los defensores de sus diferencias culturales y étnicas, los impulsores del software libre, los defensores de los derechos de los discapacitados, o la enorme variedad de los movimientos gay, o de los grupos ambientalistas.


En todos estos movimientos es posible constatar un profundo ánimo a la vez anticapitalista y antiburocrático, una opción por las luchas amplias, no vanguardistas ni enfundadas en máquinas partidarias, una vocación profunda por atender tanto el dolor particular como sus raíces sociales, una disposición práctica y teórica a vivir de maneras alternativas a la vida común, falsamente satisfecha, administrada por el sistema. Los militantes suelen llegar a ellos empujados por situaciones de horror muy concretas y cotidianas, un accidente que precipita a la discapacidad y, desde ella a la discriminación, una fuente agresiva de contaminantes que enferma a nuestros hijos, una opción de género censurada, un cuadro de “esquizofrenia” originado en actitudes comunes de rebeldía. Pero la enorme mayoría suele llevar sus militancias en un estado de ánimo curiosamente alegre y esperanzado. La alegría sobrepone al desencanto y convive con la indignación. La esperanza es más profunda que el “realismo” del político habitual o la consideración real de los enormes poderes que enfrentan. Es por eso que he finalizado el capítulo dedicado a sus formas de asociación y lucha con una frase de Silvio Rodríguez: frente a la opresión y el pesimismo fácil “quedamos los que puedan sonreír”.


II. Modelo médico de enfermedad

a. Las enfermedades en la historia humana

La medicina científica, tal como la conocemos, tiene menos de dos siglos de desarrollo. A pesar de sus largos antecedentes en la medicina racionalista griega, romana, árabe y europea, el paradigma de lo que se considera hoy en día diagnóstico, terapia y curación sólo se desarrolló desde el descubrimiento del papel de las bacterias en las enfermedades infecciosas. El extraordinario éxito en la identificación de las causas de ciertas enfermedades, y la extraordinaria eficacia de las técnicas que se desarrollaron para prevenirlas y curarlas, simplemente no tienen comparación en toda la historia anterior de la humanidad. Las consecuencias fueron espectaculares. Un revolucionario descenso en la mortalidad infantil, gigantescos avances en los estándares y niveles reales de la salud pública, justamente motivados por la conciencia sobre los agentes patógenos más comunes, revolucionarios avances en la prevención y curación de enfermedades que habían asolado a los seres humanos durante miles de años.


Hay que considerar que estos dramáticos cambios son paralelos a una verdadera revolución alimentaria. Por un lado, por primera vez en la historia, se llegó a entender cabalmente por qué los alimentos alimentan, pudiendo elaborarse una dieta modelo racional y balanceada. Por otro lado la globalización del comercio internacional y el alza relativa en los estándares de vida introdujeron una enorme variedad en la dieta disponible para cada ser humano, como nunca antes se había dado.


Vacunas, alimentos, antibióticos, estándares de higiene, condujeron a la revolución demográfica del siglo XX, y a un espectacular aumento en la esperanza de vida: si en los países más desarrollados del planeta la esperanza de vida rondaba, hacia 1850, alrededor de los 50 años, hoy en día, en todo el mundo, son comunes las que alcanzan los 75 años. Más vida, mejor estándar de vida. A pesar de los persistentes horrores de la pobreza, hoy cientos de millones de seres humanos en todo el mundo pueden esperar vivir de manera razonablemente saludable y productiva prácticamente hasta los 65 años.


El papel de la medicina científica en todos estos cambios es central e indudable. Irónicamente, sus mismos éxitos han creado, cien años después, una situación en que muchas personas han llegado a desconfiar de sus procedimientos, y se manifiestan desilusionadas y dispuestas a recurrir a toda clase de medicinas alternativas. Curiosamente, los cambios han sido tantos y tan profundos, y su extensión ha sido tan general, que hoy las personas comunes han llegado a considerarlos obvios. Incluso, en contra de lo que se podría esperar, es entre las capas medias acomodadas donde el estándar de la medicina científica es considerado con más reticencia (a pesar de su amplio acceso, y de su uso pragmático), mientras que en los sectores populares, y sobre todo en los sectores medios en pleno ascenso social, ha llegado a convertirse casi en una superstición más, olvidando también, ahora en sentido inverso, el origen y alcance de sus fundamentos y eficacia.


En realidad, la justa valoración actual de los revolucionarios progresos que ha significado la medicina del siglo XX e, incluso, también de sus límites, exige una mínima perspectiva histórica.[21] Hoy en día casi nadie imagina lo que era la vida en un mundo en que la mortalidad infantil era del orden del 40%, en que cualquier herida común podía conducir a una septicemia y a la muerte, o en que cada cierto tiempo la viruela, la tuberculosis, el sarampión, el tifus o el cólera arrasaban poblaciones enteras, trastocando todos los ámbitos de la vida social. No vemos ya desde hace muchas décadas a cientos de mendigos leprosos en las calles, o a las madres desdentadas por la descalcificación después del parto, o a los adultos con marcas de viruela o raquitismo. Como el arte siempre representó a los fuertes y a los ricos, muy rara vez podemos ver el registro de los cuerpos reales de las grandes mayorías, y la marca en ellos de la impotencia de los sistemas médicos tradicionales.[22]


Considerado de manera histórica, el impacto social de los sistemas médicos no tiene que ver con las habilidades ocasionales del médico del rey, o con la tradición erudita pero hermética de un gremio minoritario. Lo relevante no son los descubrimientos o los logros particulares, sino los procesos y los contextos. En medicina esto significa considerar las enfermedades y su tratamiento desde un punto de vista epidemiológico. Es respecto del perfil epidemiológico prevaleciente que se pueden evaluar los méritos relativos de los sistemas médicos, o de sus teorías particulares.


Es muy poco lo que la antropología médica sabe sobre las condiciones de vida en el paleolítico. Pero las observaciones sobre pueblos contemporáneos, y la estimación de sus probables regímenes de alimentación, arrojan unas cifras que hoy nos parecen espantosas: esperanzas de vida en torno a los 30 años, mortalidad infantil en torno al 80%.


Es la revolución agrícola la que creó las bases del régimen corporal que tienen hasta hoy los seres humanos, y el origen de los patrones de enfermedad que todavía nos afectan. Desde la invención de la agricultura y de la vida sedentaria, quizás el primer gran complejo de enfermedades sea el de las que son producidas por parásitos, como los parásitos intestinales y hongos en la piel. En términos conceptuales esto permite una primera aproximación a qué clase de estado es una enfermedad: se trataría, en principio, de una coexistencia entre dos comunidades biológicas que resulta dañina para una de ellas. Coexistencia, en este contexto, como una situación en que una especie, el huésped, oficia como el nicho ecológico de otra. Daño en el sentido de que la lógica biológica de este huésped resulta alterada de una forma negativa, que lo conduce al debilitamiento progresivo y finalmente a la muerte.


Las enfermedades parasitarias que asolaron a las sociedades agrícolas fueron posibles gracias a sus mismas condiciones de vida. El sedentarismo favoreció la estabilización y el florecimiento de coexistencias biológicas que la vida nómada lograba sortear o paliar por defecto. El agua contaminada por los propios seres humanos se convirtió en un peligro general, antes inexistente. Se puede especular que la proliferación de los hongos asociados a viviendas estables también fue un problema común.


Pero también había respuestas. Una experiencia de miles de años, heredada del paleolítico, se consolidó en torno al uso de hierbas de diverso tipo como cicatrizantes, fungicidas, analgésicos, eméticos y antidiarreicos. A esto hay que agregar un notable invento: el uso de las cervezas como bebida común.[23] Fabricada a partir de cereales cocidos y fermentados, todos los pueblos agrícolas tuvieron algún tipo de cerveza entre sus alimentos más comunes. Su bajo grado alcohólico permitía un efecto antiséptico que prevenía las infecciones más frecuentes y evitaba (y a veces combatía) los parásitos presentes en el agua. Durante miles de años, y hasta épocas muy recientes, los niños empezaban a consumir cerveza desde que dejaban la lactancia, y lo seguían haciendo durante toda la vida. Hay que considerar además su leve efecto euforizante, que resultaba necesario para mantener los ritmos del trabajo en condiciones nutricionales en general precarias. Se ha sostenido que, aunque parezca curioso y sorprendente, probablemente la mayor parte de los seres humanos, durante la mayor parte de la historia, vivieron bajo una situación de permanente embriaguez, funcional a las duras condiciones sociales imperantes, que resultaba, en contra de lo que se podría imaginar, más bien habilitante que cargada de las dificultades que asociamos hoy día al consumo de alcohol.[24]


Sin embargo, al mismo tiempo, el verdadero terror de las sociedades agrícolas, hasta el siglo XIX, fueron las enfermedades bacterianas, las que, debido a sus momentos de propagación catastrófica, son llamadas pestes o plagas. Hoy sabemos que hay cientos de bacterias que mantienen relaciones de convivencia pacífica con el cuerpo humano, algunas de ellas incluso de beneficio mutuo, como las que componen la flora intestinal. Las enfermedades, en cambio, son el resultado de una relación conflictiva. En algún momento de la historia, desde los animales recién domesticados, o desde su propio interior, por mutación, el cuerpo es invadido, infectado, por bacterias malignas. Frente a esto reacciona con medidas que tienen un sentido general defensivo: despliegue de mucosas, aceleración del flujo sanguíneo; y esto se evidencia por sus consecuencias: fiebre, dificultades respiratorias, erupciones en la piel, o internas. Las bacterias centran su acción en los tejidos de algún órgano que les resulta más apropiado y desde él atacan a otros órganos. Se pueden identificar hace ya más de dos mil años: enfermedades del pulmón, enfermedades del hígado, enfermedades de la sangre.


La interacción entre estas bacterias malignas y el cuerpo humano, en términos poblacionales, obedece a las reglas de la selección natural. Muchos seres humanos mueren, unos pocos, a veces catastróficamente pocos, sobreviven porque tienen un aparato inmunológico ligeramente distinto que los favorece. Generación tras generación la proporción de estos resistentes aumenta. Los más débiles simplemente mueren. Con el tiempo la enfermedad resulta mortal sólo para los niños y para los más viejos. Se convierte en lo que suele llamarse “enfermedad infantil”, es decir, una alteración que desarrolla sus síntomas típicos de manera relativamente benigna en la infancia, y a la que en general se puede sobrevivir sin secuelas demasiado graves: marcas en la piel, o una debilidad relativa en los huesos. Todavía en mi infancia, hace cincuenta años, eran comunes algunas: la “peste cristal”, la rubeola, la alfombrilla e incluso el sarampión. Domesticadas durante cientos de años hasta perder el carácter de plagas devastadoras que alguna vez tuvieron, las enfermedades en su estado “infantil”, actúan como verdaderas vacunas. Relativamente leves en sus consecuencias dañinas, son capaces, en cambio, de obligar al sistema inmunológico a desarrollar defensas contra nuevas infecciones, o contra la permanencia de las bacterias en el cuerpo. Así, los adultos pueden ser portadores, o coexistir con ellas en el ambiente, sin enfermar. En la vejez, sin embargo, cuando se debilitan estos mecanismos, pueden resurgir y ser mortales.


Por esta vía, y considerando el relativo aislamiento de los asentamientos humanos en las primeras fases de la revolución agrícola, llegaron a existir regiones de coexistencia pacífica relativamente benignas, en que ciertas enfermedades permanecían de manera endémica, aumentando o disminuyendo su prevalencia en la población sin grandes variaciones, más bien al ritmo de la escasez y la hambruna. Se formaron de esta manera aparatos inmunológicos estables, pero diferenciados entre diversos pueblos.


Pero las sociedades agrícolas tradicionales estaban permanentemente amenazadas por dos enemigos: la ineficacia de sus técnicas agrícolas, y la tentación por su excedente agrícola de los pueblos de pastores que las rodeaban. La ineficacia técnica los llevaba a sobreexplotar la tierra, a agotarla, y los obligaba cada cierta cantidad de siglos, a emigrar, o a concentrarse en torno a los grandes ríos. Buscando nuevas tierras migraron. Buscando defenderse de las invasiones de pastores o de estos pueblos de campesinos pobres construyeron fortificaciones, formaron reinos, extendieron sus territorios de manera preventiva. Es el destino general de los imperios antiguos: se extienden y extienden hasta terminar explotando como verdaderas burbujas, víctimas de invasiones, de la ineficacia administrativa, del empobrecimiento del suelo… y de las pestes.


Antiquísimos mitos como el de las “siete plagas de Egipto”, presentes en casi todas las grandes narrativas de la antigüedad, podrían tener así su base empírica real. Cuando los imperios se extienden, con ánimo comercial o de conquista, se cruzan sin saber sutiles barreras inmunológicas. Enfermedades que para un pueblo permanecen latentes, endémicas, como enfermedades infantiles, resultan catastróficas para los invasores o los invadidos. En el momento de su máximo apogeo territorial feroces plagas asolan y debilitan de manera sustancial a la población de un gran imperio. Desde entonces la decadencia se precipita.[25]


Hace sólo poco más de un siglo que podemos saber el fondo invisible de estas grandiosas catástrofes, que deben tanto a las propias características de la cultura humana, pero que son precipitadas por agentes sutiles y omnipresentes. Si consideramos las extremas y violentas desigualdades que prevalecieron en esos imperios, los odiosos privilegios y chauvinismos, es hoy perfectamente comprensible que las plagas hayan sido consideradas como maldiciones de origen divino. Era literalmente imposible observar sus causas, sus efectos eran fulminantes y atroces, los momentos en que aparecían eran justamente aquellos que desbordaban de soberbia y vanidad humana. Sólo podían ser causa de la mano de Dios.


Pero no lo eran. Ya desde el siglo XIII, médicos árabes como Avicena y Ibn al-Jatib[26] postularon, sólo sobre la base de evidencias externas, la existencia de organismos microscópicos que serían sus agentes causales. Con el desarrollo del microscopio en el siglo XVII se observaron por fin seres vivos que para el saber humano eran absolutamente nuevos, imposibles de constatar por el uso común de los sentidos. Médicos como Louis Pasteur (1822-1895), Claude Bernard (1813-1878) y Robert Koch (1843-1910), desde 1860 en adelante, usaron de manera completamente pragmática el método científico, e identificaron bacterias específicas como causas directas y determinadas de enfermedades específicas. A partir de la obra de médicos como Paul Ehrlich (1854-1915), sobre esta base, se desarrollaron también remedios específicos para esas enfermedades.


Por primera vez en la historia humana la medicina logró conocer de manera directa la causa de algunas enfermedades, y eso abrió las puertas para la observación también directa y sistemática de sus mecanismos de acción en el cuerpo y, sobre todo, para el desarrollo de técnicas de curación y prevención. Por primera vez los procedimientos médicos pasaron de estar centrados en el alivio de los síntomas a estar centrados en la solución radical de las causas y sus antecedentes. Durante cinco mil años los sistemas médicos contaron con recursos de eficacia variable contra la fiebre, el dolor, la diarrea o las erupciones de la piel, pero fueron simplemente anulados y arrasados en los momentos de paroxismo de las plagas. El destino de los enfermos particulares quedaba abandonado completamente a las reservas inmunológicas propias o a sus antecedentes nutricionales. Ocasionalmente, entre los griegos, chinos, romanos y árabes, se practicaron políticas preventivas. Pero la llegada de las plagas fue invariablemente catastrófica.


La derrota general de las enfermedades bacterianas a lo largo del siglo XX es el mayor logro en toda la historia de la medicina, y uno de los mayores avances en la historia de la humanidad. Hay que considerar, para mostrarlo mejor y profundizar su mérito, el contexto inmediato a través del cual fue obtenido. El uso sistemático y racional del método experimental. El desarrollo de poderosos instrumentos de observación, como los análisis químicos y los métodos de tomografías. El desarrollo de poderosos agentes curativos directos y circunscritos a objetivos extremadamente específicos. El desarrollo y la generalización de las medidas preventivas fundadas ahora en un saber amplio y seguro. El desarrollo de protocolos diagnósticos y terapéuticos validados científicamente, y de aplicación general. Agreguemos aún el detalle externo, pero nada menor, de que todo esto se hizo con costos sociales, e incluso personales, bajísimos, lo que significó una revolucionaria democratización del acceso al saber y al cuidado médico, completamente distinto a la centenaria y enojosa diferencia entre la medicina practicada por el médico del rey y la curandería tradicional reservada a los pobres.


Pero estos impresionantes éxitos que, en lo sustantivo, aún se mantienen, contienen ellos mismos sus propios límites y las claves de los problemas que engendran.


El primer gran asunto es el profundo cambio que se produjo en el perfil epidemiológico de los seres humanos, cuyos efectos hemos empezado a experimentar de manera masiva desde el último tercio del siglo XX. El retroceso general de las enfermedades parasitarias y bacterianas, combinado con el aumento de la esperanza de vida, acarreó la emergencia de otras enfermedades, que siempre existieron pero cuya incidencia epidemiológica estaba ensombrecida por el carácter fulminante de las primeras. La emergencia, particularmente, de las enfermedades virales y las degenerativas.


En términos muy generales se puede decir que mientras las enfermedades parasitarias enferman al cuerpo, las bacterianas lo hacen con los órganos del cuerpo. En esa misma línea se puede decir que los virus son enfermedades de las células, y los viroides y priones lo son de los órganos celulares.[27] Si una bacteria tiene el efecto de destruir masivamente el tejido de un órgano (pulmón, riñón, hígado), los virus en cambio tienen el mismo efecto atacando células individuales. O, lo que es lo mismo, el nicho ecológico de una bacteria es un órgano, el de un virus una célula.


La simplicidad relativa de un virus le permite mutar con mucha mayor frecuencia que los organismos vivos más complejos. Es por eso que las enfermedades virales más comunes suelen tener nombre genéricos como “gripe”, “influenza”, “resfrío”, que remiten a decenas o cientos de cepas que son conocidas con nombres técnicos simplemente clasificatorios (como N1H1). En esto radica justamente la dificultad de su curación efectiva. Mientras las bacterias son, en principio, identificables con nombres individuales, como también las enfermedades que originan, y se las puede atacar de manera específica, con agentes que las afectan de manera individual, los agentes que en principio podrían ser curativos para una cepa de virus podrían no serlo para la siguiente. Esto hace que las enfermedades virales no sean, propiamente, “curadas”, en el sentido de erradicar de manera directa sus causas, sino que son “contenidas” con remediales que atienden más bien a los síntomas, mientras el cuerpo desarrolla por sí mismo una manera benigna de coexistir con el virus.


Es interesante observar que la revolución nutricional, y en la higiene pública, operan netamente a nuestro favor en esta encrucijada. Poseemos hoy cuerpos más fuertes, que permiten resistir de mejor manera el período de adaptación a los virus, y habitamos en entornos favorables que nos protegen de otras infecciones en esos períodos de debilidad relativa. Es interesante también el que el cuidado que hoy se dedica a las enfermedades virales tenga las mismas características del que antes se dedicó a las bacterianas: paliar los síntomas mientras el cuerpo hace su tarea con las causas.


En términos epidemiológicos, las enfermedades virales más comunes son relativamente baratas para los afectados individuales, pero son bastantes caras en términos sociales. En la medida en que sólo son parcialmente inhabilitantes, y pueden ser superadas a lo sumo con algunos días de cama, los afectados pueden sobrellevarlas sin grandes consecuencias económicas. Pero, en la medida en que son “incurables” y se propagan con la lógica y la rapidez de las plagas, se traducen en la pérdida de miles de horas de trabajo, que deben ser asumidas a la larga, de alguna manera, por toda la sociedad.


Las enfermedades degenerativas, como los cánceres o el mal de Alzheimer representan, en cambio, una situación inversa, en gran parte debido al predominio de la medicina privada sobre la pública: significan enormes costos para los afectados individuales.


A diferencia de todas las anteriores, se sabe poco sobre la causa directa y determinada de las enfermedades degenerativas, aunque se puede observar en detalle el mecanismo de su desarrollo. Esto hace que tampoco puedan ser “curadas” de manera directa. En algunos casos, como el Alzheimer, simplemente se retrasan o alivian sus síntomas. En otros, como en los cánceres, se procede lisa y llanamente a erradicar las células afectadas lo que, en la mayoría de los casos en que son diagnosticados a tiempo, resulta equivalente a una curación.


La tragedia de las enfermedades degenerativas es que su tratamiento, cuando el pronóstico no es favorable, es largo y costoso. El deterioro progresivo, en términos médicos, afecta grave y profundamente tanto al enfermo como a su entorno. Y, ahora en términos económicos y sociales, extramédicos, esa gravedad se extiende sobre todos los ámbitos de la vida. Pero, de una manera bastante ominosa, estamos condenados socialmente a ese problema justamente gracias a nuestros éxitos como cultura: las enfermedades degenerativas son propias de los viejos, que han llegado a una edad avanzada porque se han liberado de los otros tipos de enfermedad, o son efectos de fuentes de contaminación muy agresivas, cada vez más comunes en la cultura industrial.


Pero, un segundo gran asunto, derivado de la lógica que subyace a los éxitos de la medicina científica, es la aparición de enfermedades y alteraciones de la salud nuevas, que tienen su origen en la propia práctica médica. Un caso alarmante es el del cambio en las tasas de mutación bacteriana inducido por los propios antibióticos, otro es la circularidad terapéutica.


Si se piensa en términos de la guerra ancestral entre bacterias y seres humanos, los antibióticos equivalen a un arma de destrucción masiva, hasta ahora… de bacterias. Pero el enemigo tiene también un arma extremadamente poderosa: su capacidad de mutación, de generar variedades resistentes. Los antibióticos son armas precisas, destruyen las causas específicas de cuadros sintomáticos específicos. En algún momento de su desarrollo, llevados por un entusiasmo médico, pero también económico, se introdujeron antibióticos “de amplio espectro”, capaces de erradicar a la vez muchos tipos de bacterias. Tanto la potencia desarrollada para tratar a las variedades resistentes como la amplitud del espectro (“para matar todos los pájaros de un tiro”) tienen el efecto de incrementar las mutaciones bacterianas, pero ahora no sólo de los patógenos originales sino de otras especies en principio inocuas que llegan a ser nocivas en el marco de millones de mutaciones ocurriendo simplemente al azar.


A este panorama hay que agregar una práctica, originada ahora netamente en la avidez del lucro capitalista, que agrava enormemente el problema: la de inyectar masivamente antibióticos a animales en el marco de la producción industrial de carne para aumentar el tiempo que demora en descomponerse, y dar así mayor tiempo al consumidor para comprarla. Los organismos vivos residentes en estos animales reaccionan, mutan, y se convierten de vez en cuando en agentes patógenos para los seres humanos. El “mal de las vacas locas”, la fiebre aviar, la fiebre porcina… un cuento de nunca acabar originado netamente en el afán de lucro.


Pero estas dosis masivas de antibióticos que pasan al cuerpo humano a través de la carne industrial, y el propio valor nutritivo que esa carne, tienen en nosotros un efecto paradójico: contribuyen a formar cuerpos resistentes a las enfermedades y, a la vez, son fuente potencial de enfermedades nuevas. La tragedia implicada en esta paradoja, sin embargo, es enormemente cruel y sombría: las nuevas enfermedades son resistidas por los que mantienen estándares de vida relativamente aceptables, y son mortales para los pobres absolutos. La creciente brecha entre integrados y marginados en la sociedad moderna se va convirtiendo también en una brecha inmunológica, al estilo de la que separaba a las poblaciones humanas en las antiguas pestes. Nuevas formas de tuberculosis, difteria o varicela, resistentes a los antibióticos comunes, podrían representar en el siglo XXI el equivalente de las plagas clásicas de estos mismos males anteriores al siglo XX y, desde luego, agentes virales particularmente agresivos, generados por la misma vía, podrían llegar a cumplir, incluso con mayor eficacia, el mismo papel.


Pero los que consumen, los que tienen acceso a los bienes que puede ofrecer la industria médica, tienen su propia “plaga”: la de la circularidad terapéutica. Sin contar aún con los incentivos que provienen del lucro, de los que me ocuparé más adelante, y centrándome sólo en su origen médico, el asunto es que es cada vez más frecuente que las terapias médicas tengan, junto y por sobre su eficacia local, efectos secundarios que equivalen a otra enfermedad. Es el síndrome típico, común, que afecta a quien consume un fármaco para el hígado que le afecta los huesos, al que se le receta un fármaco para su problema con los huesos que le afecta la digestión, y al que se le receta un fármaco para la digestión que no lo deja dormir.


El origen de este círculo está en la misma lógica analítica con que se aislaron las causas particulares de ciertas enfermedades y se desarrollaron tratamientos circunscritos a ellas. El éxito del modelo genera todo un paradigma de acción médica que se enfoca sobre lo local y particular, y que tiene siempre dificultades para abordar las dolencias específicas en el contexto sistémico que las produce, o que entiende el término “sistémico” de una manera tan estrecha que termina refiriéndolo sólo al sistema local, puramente orgánico. La consecuencia de esto es que, a pesar de las evidencias directas, se terminan tratando los efectos secundarios de la propia terapia como si fueran dolencias independientes.


Pero hay más. Es una lógica poco sensible al problema de las interacciones eventuales entre fármacos, insensible a la consideración del origen contextual, más allá del agente causal directo y, por cierto, como es tradicional, completamente insensible al efecto subjetivo que los procedimientos médicos podrían producir en el paciente e, incluso más, al efecto que estos estados subjetivos podrían tener sobre la propia evolución objetiva de la enfermedad. El resultado global de todo esto es que, después de un siglo de mejoras continuas en los protocolos terapéuticos y procedimientos hospitalarios, los médicos y los hospitales han vuelto a convertirse en fuentes de enfermedades, y es cada vez más común salir de una terapia con más problemas de los que se tenía, o salir de un hospital más enfermo de lo que se entró.


No hay en estos éxitos y problemas que describo un patrón ni de progreso ni de empeoramiento simple. La situación del oficio médico es hoy sencillamente más compleja que hace un siglo o, mejor, enormemente más compleja, tanto en sus innegables méritos como en las ominosas amenazas que representa y presagia. En general, como pensador político y filósofo ilustrado, tiendo a ser metódica y políticamente optimista. Creo, profundamente, que tenemos hoy en día muchísimas más soluciones que problemas. Y creo que la solución para la mayoría de los problemas actuales de la práctica médica, aunque pase directa y necesariamente por los profesionales del gremio, no es, en lo sustantivo, un problema médico.


En lo que sigue procuraré obtener consecuencias conceptuales de estas consideraciones históricas, y comentaré algunas de sus condiciones epistemológicas. Sólo después de esto, que es lo que apunta hacia el hilo argumental de este libro, volveré sobre las características y efectos sociales de la medicina científica en sus formas hoy predominantes.


b. El modelo médico de enfermedad

La historia de la medicina, como la de cualquier otra técnica moderna, está llena de luces y sombras. Comparados con los de la ingeniería, sus éxitos más notables son mucho más recientes y, a pesar del hondo impacto que han causado, mucho más controversiales. Si nos mantenemos en esa comparación, sin embargo, los éxitos de la medicina son largamente los más populares y sus problemas, también, ampliamente los más ignorados.


Quizás esta es una situación que no debería extrañar: proviene de la complejidad de su objeto. Mucho más que la ingeniería o que las técnicas de administración social, la medicina está íntimamente relacionada con las esperanzas más inmediatas de los ciudadanos particulares y, de manera correlativa, con sus temores y ansiedades. No es extraño que cada uno de sus éxitos haya desencadenado oleadas de esperanza entre los que sufren, y no es extraña por consiguiente la reacción de temor y ansiedad que suelen producir las muchas experiencias de sus límites.


En esta marea de apariencias, en que sistemáticamente se promete y se espera abiertamente más de lo que se puede dar, y en que los desencantados critican sin mesura un sistema que ha sido enormemente exitoso, la clave de esos éxitos queda opacada, frecuentemente desde ambas partes. Yo creo que esa clave está en la aplicación racional del método de observación y experimentación en torno a un paradigma que ha sido muy eficaz, el “modelo médico de enfermedad”.


Por supuesto, como siempre, la realidad es más compleja que cualquier modelo. Pero me interesa especificarlo como tal porque, incluso cuando difiere de las situaciones reales y concretas, esa misma diferencia tiene ya un valor productivo.[28]


Desde luego, y de acuerdo a lo que he descrito, el modelo de enfermedad que la medicina científica ha levantado como paradigma es el de las enfermedades de origen bacteriano. El modo en que fueron investigadas, la manera en que se precisaron sus criterios diagnósticos, la determinación precisa de sus causas, el abordaje específico que conduce a su curación.


Todo esto se traduce en que, para caracterizar una enfermedad científicamente, sea necesario especificar de manera directa e independiente su causa, el mecanismo a través del cual opera, y los síntomas a que da lugar. El correlato lógico de esta determinación específica es que sólo se puede decir que se ha curado una enfermedad de manera efectiva cuando se han erradicado sus causas.


El ejemplo clásico, que corona el modelo, es la tuberculosis. Un claro agente causal, el bacilo de Koch; un mecanismo determinado, la destrucción de tejido pulmonar y la formación de “tubérculos”; una sintomatología específica, fiebre, dificultades respiratorias, “sombras en el pulmón”, etc. El antibiótico que mata al bacilo de Koch, la vacuna que previene su proliferación, la radiografía que afina el diagnóstico, son corolarios y consecuencias lógicas de la caracterización primera, que se ha establecido a través de la observación y el experimento.


Por supuesto la caracterización histórica de la tuberculosis se hizo hace mucho tiempo (ya por los egipcios) a partir de los síntomas. Sin embargo, la observación directa de las causas permite relegar esa etapa al momento precientífico, y abre su consideración moderna. El punto es relevante porque hoy existen, como explicaré, otras enfermedades que pueden ser consideradas en esa etapa.


En el modo científico, en cambio, la ciencia y el arte del diagnóstico diferencial suponen el modelo de enfermedad y operan a través de él. Los síntomas genéricos, como la fiebre o la tos, son examinados a la luz de varias hipótesis causales. Se buscan síntomas específicos, que confirmen unas hipótesis y descarten otras, como las “sombras en el pulmón”. A través de reacciones químicas y fisiológicas que se han constatado como propias de la acción del bacilo, y que producen antígenos detectables, se confirma el diagnóstico, en este caso con un examen de sangre. En el extremo, ahora innecesario, se podría extraer tejido tuberculoso y observar directamente al bacilo en su acción destructiva. Un campo de enormes avances en la medicina del siglo XX es justamente el desarrollo de pruebas diagnósticas, muchas veces a partir de indicadores medibles y cuantificables, que hacen innecesario este último paso. La observación propiamente directa de la causa queda circunscrita a la etapa de investigación y caracterización de la enfermedad, que se prolonga luego hacia el desarrollo de instrumentos y pruebas diagnósticas que sean a la vez más cercanas a la causa real y menos invasivas para el paciente.


Hay que notar que la formulación de un modelo de enfermedad en estos términos elude el engorroso problema, en principio irresoluble, de “definir” el concepto, de acuerdo a la creencia simple de que un concepto podría definirse a través de una ecuación en que después del signo igual se escriba una fórmula que agote completamente su contenido. Semejante tarea no sólo es inútil, por imposible, sino que conduce a toda clase de burocratismos terminológicos, por lo demás muy comunes en la academia. No. Aquí de lo que se trata más bien es de responder a la pregunta “¿bajo qué condiciones diría usted que una situación de alteración puede ser considerada como una enfermedad?”.


La pregunta así formulada elude también, pero ahora por obvia, la cuestión de si se trata de una alteración (se supone que lo es), como también la de si esa alteración es dañina en términos orgánicos para quien la sufre (se supone que lo es). Es necesario especificar también, aunque ahora es mucho menos obvio, que con este modelo estamos abordando situaciones de orden biológico u orgánico. Desde el punto de vista de la medicina científica, el uso de la palabra enfermedad en expresiones como “enfermedades del alma” (como la angustia o la soledad descritas por Kierkegaard) sólo puede ser metafórico y, aun siendo una metáfora adecuada o legítima, hasta el mismo Kierkegaard aceptaría que no se está hablando en ambos casos de la misma clase de situaciones o estados. Otro tanto vale para la aplicación de términos médicos para situaciones sociales (como el famoso “cáncer marxista”).


La historia del uso de metáforas médicas para situaciones no médicas es antiguo, y muy interesante. Necesariamente tendré que referirme a él más adelante. El punto aquí, en cambio, es otro y, en términos lógicos, es estrictamente previo. Para establecer que el uso de tal o cual término médico es metafórico es esencial, y obvio, que se determine cuál es su uso originario, el que es propiamente médico. Por supuesto eso depende también de a qué sistema médico nos estemos refiriendo. Lo que propongo aquí es un concepto muy específico y determinado, el que oficia de modelo en la medicina científica, que es la más exitosa de la historia, y la que domina ampliamente las prácticas médicas actuales.


Es importante también abordar el problema de “qué es enfermedad” desde una perspectiva inversa. Si bien cuando estamos ante una enfermedad corresponde acudir a la asistencia médica, al revés, en cambio, no todas las intervenciones médicas se producen, o son necesarias, sólo cuando hay enfermedad. Por un lado, como examinaré luego, está el amplio campo de la medicina preventiva (que de todas maneras tiene a la enfermedad como referente), pero también, por otro, están todos los casos en que hay sufrimiento orgánico, o hay alteraciones de la salud, que no provienen de enfermedades. El caso típico es el de las heridas o las fracturas de huesos. Pero se pueden invocar también estados o cuadros como el acné, la halitosis, el alcoholismo, o la vejez.


En términos metodológicos, sin embargo, no me parece muy útil intentar definir la enfermedad a priori, o como “lo contrario de la salud”. Hacerlo nos pone de inmediato frente a opciones fuertemente valóricas, antes de que podamos hacer muchas distinciones que podrían ser útiles y necesarias justamente para tratar de dirimirlas. Lo que hago aquí es más bien partir de una caracterización pragmática de un modelo de enfermedad para llegar, de manera mucho más informada y razonada a tales discusiones. Esto evita asumir a priori la idea de que toda enfermedad es solo un constructo social, como han postulado algunos críticos,[29] o la contraria, que una enfermedad es una entidad solamente biológica y objetiva, que es la que comparte la mayoría del gremio médico y, al revés, permite llegar a cualquiera de esas posturas mucho más adelante, cuando los problemas implicados en ella hayan evidenciado en su desarrollo algo de su complejidad.


Pero, como ya he sostenido, este modelo médico de enfermedad no se ajusta completamente a todos los casos en que, aun en la medicina científica, se habla de enfermedad. En el caso del cáncer no se conocen, ni se han observado de manera directa, sus causas. Se conoce en cambio, con bastante detalle, el mecanismo a través del cual opera. Aquí lo lógico, lo que el modelo sugiere, es concentrarse por ahora en atacar ese mecanismo. Y, en la mayoría de los casos diagnosticados a tiempo, es posible erradicarlo literalmente cortando o incinerando las células afectadas. Hasta ahora no se sabe, de manera directa, cómo revertir la proliferación de células malignas, o cómo prevenirlas (no hay una vacuna contra el cáncer), por lo que la situación no puede ser considerada, desde el punto de vista de la ciencia médica, como “curación” (erradicar las causas). Sin embargo, en términos operativos, y sobre todo para el afectado, el proceso equivale perfectamente a una curación. Y nadie lo negaría por un simple prurito epistemológico. Pero esta claridad conceptual aquí inútil es relevante, incluso será muy relevante o decisiva en los contextos que examinaré más adelante.


El que la mayoría de los cuadros de cáncer puedan ser tratados, y eventualmente “curados”, se debe a la peculiar forma de su desarrollo. Se trata de una proliferación de células malignas originalmente concentradas en forma de tumores. Es ese carácter, inicialmente local, el que permite su extirpación. El asunto se vuelve intratable, en cambio, ante una propagación masiva, como en la etapa de metástasis, o en otras enfermedades degenerativas como el Alzheimer, o el mal de Lou Gehrig, en que la degradación celular es masiva desde su inicio. Aun en estos casos una línea de ataque posible es intentar contener, o hacer más lento, el proceso actuando sobre el mecanismo de su desarrollo de modos acotados y específicos. El punto es importante para cuadros como la diabetes, en que o se desconoce la causa o es intratable y, sin embargo, el mecanismo del mal, la insuficiencia de insulina, es ampliamente tratable en casi todos los casos. Lo mismo ocurre con el procedimiento de la diálisis sanguínea con que se trata la pérdida de capacidad renal. Estamos aquí en un límite en que no hay, ahora claramente, curación y, sin embargo, la intervención médica va, también claramente, mucho más allá del mero alivio de los síntomas. Y se ha avanzado más allá justamente siguiendo la sugerencia general del modelo médico: del síntoma a la causa, si eso no es posible atacar el mecanismo de desarrollo.


En el caso de las enfermedades virales más comunes, como la gripe o la influenza, la situación es de nuevo distinta. Ahora se puede observar directamente la causa (la acción de un virus), incluso su mecanismo (cómo y en qué altera los procesos de una célula), pero ambos resultan intratables de manera directa. La rápida mutación de las cepas virales hace que, aun en el caso de curar (matar) un tipo, tengamos que enfrentarnos en muy corto plazo con otro de la misma familia que es resistente. Eso impide que haya vacunas de acción general realmente preventivas. Pero además, por otro lado, la intervención específica sobre los procesos biológicos a nivel de la célula es hasta hoy muy difícil, a pesar de que es uno de los campos de investigación más activos, y más prometedores, de la medicina. El resultado práctico es que, hasta hoy, no se conocen curaciones efectivas para cuadros tan comunes como el resfrío, las gripes y las influenzas, que son comunes justamente por eso.


Como he sostenido antes, estos males conservan la lógica de las plagas bacterianas. El paciente debe esperar la reacción de su propio cuerpo, tratando meramente los síntomas de manera paliativa (sólo aliviarlos), y también preventiva (para evitar el escalamiento a otras infecciones que podrían ser más graves). Nuevamente aquí, sin embargo, la guía es el modelo médico: determinar las causas, examinar de manera detallada el mecanismo, ir más allá de los síntomas. Es probable que a la larga las enfermedades virales puedan ser “curadas” de maneras análogas al cáncer, bloqueando los mecanismos de su desarrollo. Aun así, sin embargo, el modelo médico señala un horizonte preciso: conocer y erradicar las causas. Y la investigación médica continúa en esa dirección.


c. Medicina preventiva, curativa y paliativa

El problema práctico e inmediato de los afectados, sin embargo, no es el horizonte de la investigación médica sino sus posibilidades de acción real. El modelo permite formular al respecto un sistema de precedencias en la intervención que, en general, deriva de su propia lógica, sin ingresar aún en debates éticos muy profundos, los que sí serán necesarios, en cambio, en sus extremos.


Desde luego, ante cualquier alteración de la salud posible el primer deber médico es prevenir. Y la guía lógica para esto es el conocimiento de las causas posibles para tales alteraciones. La medicina preventiva general, que se suele denominar prevención primaria, atiende a contextos de los que se puede presumir que incubarán agentes infecciosos directos, o precursores de alteraciones que más tarde serán difíciles de tratar. Los estándares más adecuados de nutrición, el estudio de precursores como el tabaquismo o las fuentes de contaminación, el papel transversal de la higiene, son las tareas típicas de esta función general del oficio médico, que es la más productiva en términos sociales, aquella en que el saber médico acumulado alcanza su máxima eficacia, y provee el máximo beneficio de que es capaz.


La medicina preventiva específica, aquella que atiende las causas identificables particulares, es la que le sigue en esas virtudes. Pero debe operar a partir del conocimiento determinado y particular de los agentes patógenos, cuestión que, como he señalado, no es posible en todos los tipos de males. La vacunación contra las enfermedades bacterianas es el caso más evidente y más exitoso de esta acción. La correlación específica entre consumo de tabaco y cáncer pulmonar, o de la exposición solar y cáncer a la piel son otros casos. Pero, como está dicho, no hay prevención específica, al menos hasta hoy, ni para las enfermedades degenerativas (en general), ni para las enfermedades virales.


Hoy en día se suele llamar prevención secundaria, a esta acción específica, pero en la práctica casi se la ha llegado a identificar con una de sus tareas, la de cribado sistemático de las poblaciones que se consideran en algún tipo de riesgo para obtener una detección precoz de eventuales futuros males. Como han señalado los críticos de esta identificación,[30] sin embargo, tal reducción forma parte más bien de la mercantilización de la medicina, que comentaré más adelante, que de la lógica propia del modelo médico.


La medicina curativa es el paso siguiente y, en ella, he señalado ya su precedencia lógica: erradicar la causa; si esta es desconocida o intratable, erradicar o contener el mecanismo a través del cual opera. En los dos primeros casos, en términos prácticos, se puede hablar de curación. Aun así, la sola contención prolongada de un mal puede ser vista como un logro curativo importante. Es el caso de la diabetes.


Pero la tarea médica no se detiene ante la imposibilidad de la curación. Se trata en general de aliviar el dolor, y esto suele ser particularmente urgente justamente en las enfermedades que son hasta hoy incurables. En este caso la primera línea de acción es retardar o aliviar la operación del mecanismo a través del cual la enfermedad se desarrolla. Si aún esto no es posible, cabe intervenir directamente sobre los síntomas. Estas son las intervenciones que constituyen la medicina paliativa. Actualmente el caso más común es la intervención médica sobre cuadros virales como el resfrío o la gripe. A pesar de que hay una precedencia lógica entre medicina preventiva, curativa y paliativa, su aplicación no tiene por qué ser sucesiva, y las relaciones que mantienen entre sí distan bastante de ser simples.


Desde luego la acción de aliviar los síntomas puede ser paralela a la acción curativa. El límite obvio de este paralelismo es que ambas acciones no interfieran, en particular que lo que se haga para aliviar el síntoma no dificulte lo que se hace para lograr la curación. En la práctica el asunto puede ser complicado. Frecuentemente ocurre que al aliviar los síntomas queda enmascarada la causa real o, a la inversa, que para lograr un diagnóstico efectivo es necesario que los síntomas se manifiesten. Argumentaré luego, en los Capítulos IV y V, que esta es una situación frecuente en la medicamentación psiquiátrica.


Lo que está en juego en esos casos es un problema muy general, que deriva de la tendencia analítica y localista de la medicina científica, y es que, a pesar de las ilusiones ilustradas, nunca una intervención médica local y específica tiene un solo efecto, el que se buscaba. Un antibiótico no sólo puede matar a un tipo de bacterias, también puede potenciar a otras. Una vacuna no sólo genera anticuerpos útiles, puede generar también reacciones alérgicas. La diálisis no sólo purifica la sangre sino que también, a la larga, la empobrece. Situaciones como estas son comunes respecto de los llamados “efectos secundarios” de los fármacos. La realidad flagrante es que el apelativo de “secundarios” obedece sólo a la intención del médico, y al objetivo para el cual el fármaco fue diseñado. Es demasiado frecuente, sin embargo, que esos efectos se conviertan en verdaderamente “primarios”. El defecto general de la lógica científica aquí es su dificultad para considerar y valorar de manera adecuada la interacción entre los diversos efectos de una misma intervención y, peor aún, entre los efectos de varias intervenciones paralelas. El enfoque analítico procede de manera local, asumiendo comparaciones a lo sumo de dos términos, con lo que frecuentemente sólo logra empeorar el panorama global.


Ahora sí, y justamente porque el problema se hace complejo, son necesarios criterios éticos que puedan ordenar opciones y precedencias que ya no se siguen de manera simple del modelo médico de enfermedad en uso. Surge la necesidad de una medicina preventiva interna a la acción curativa, que acompañe y trate las consecuencias “colaterales” del desarrollo de la enfermedad, por un lado, y del propio proceso curativo por otro. Por supuesto, también aquí, la expresión “colateral” sólo surge de la visión pobremente analítica según la cual el médico sólo trata una alteración, que sería la enfermedad como tal, y “otros profesionales”, a los que se suele llamar de manera vagamente peyorativa “paramédicos”, se encargarían de las “otras” dimensiones del cuadro global.


Hoy se suele llamar medicina preventiva terciaria a la que, a lo largo de la enfermedad no sólo previene los aspectos declarados colaterales por la vanidad médica, sino que incluso los trata, lo que produce por cierto una clara ambigüedad entre su papel preventivo y su realidad “curativa”. No sólo se ocupa de prevenir complicaciones, sino incluso de tratarlas a través de procedimientos de rehabilitación.[31]


Pero también, es cada vez mayor la fuerza para distinguir una medicina preventiva cuaternaria, que se dedique a identificar y prevenir las consecuencias de las propias intervenciones médicas, algo que con la industrialización de la medicina es cada más necesario. El sobretratamiento, las consecuencias de las medidas innecesarias que se toman ante el temor de estar en “situaciones de riesgo”, los excesos de exámenes motivados sólo por razones mercantiles. En general, la tarea de combatir los efectos de la medicalización de la vida, que comentaré en el apartado siguiente.


Cuando se consideran estos planos y sus interacciones, el asunto desborda claramente lo que puede ser decidido en términos puramente médicos. Surge la necesidad de un imperativo ético que limite la medicalización interesada, que impida que las acciones paliativas prolonguen innecesariamente un mal, o lo agraven. Sólo un imperativo ético puede establecer la prioridad del bienestar global del paciente ante la intervención local que le produce daños colaterales. O la prioridad de la calidad de vida por sobre la prolongación de la vida, que es el caso en la discusión sobre la eutanasia. O la prioridad de la calidad de vida por sobretratamientos fuertemente inhabilitantes, como ocurre en el caso de la medicamentación psiquiátrica.


Para estas interacciones entre factores y criterios la mera epistemología médica no basta. Sea cual sea la acción, hay valores en juego. Valoraciones en defensa de las cuales se pueden esgrimir factores objetivos, pero que no puede ser decididas sólo sobre la base de ellos.


d. Medicalización e industria médica

1. La industria médica

Las consideraciones que he hecho hasta aquí sobre asuntos médicos son necesarias para el propósito de este libro, pero forman parte de un campo de polémicas mucho más amplio, que lo excede. Son necesarias porque el gran asunto que quiero discutir es la extensión del modelo médico de enfermedad a las alteraciones del comportamiento. Pero exceden largamente ese propósito porque podrían figurar, desarrolladas con más detalle y en su mérito propio, en la discusión general sobre el carácter de la medicina.


Con lo dicho hasta aquí es suficiente para una confrontación sustantiva con las pretensiones de la psiquiatría de orientación neurológica. Comentaré, sin embargo, previamente, en este apartado, otros aspectos de esas proyecciones sociales, ahora de carácter más ético y político y, también, sólo en la medida en que pueda enlazarlos mucho más adelante con las consecuencias del argumento central. Me detendré en algunas de las gruesas distorsiones que el lucro capitalista ha introducido en la práctica médica, luego volveré al argumento principal.


Aunque se puede decir que desde el origen del auge del gremio de la medicina científica, a lo largo del siglo XVII, su pretensión de poder, su actitud de exclusión y estigmatización de cualquier otra práctica médica, sus pretensiones de saber, estuvieron ligadas y fomentadas desde sus intereses económicos, no es hasta mediados del siglo XX cuando este interés se vuelve decisivo y condicionante.


En 1980, describiendo los cambios ocurridos en los veinte años anteriores, el doctor Arnold S. Relman se refiere a esto como “el nuevo complejo médico industrial”, por analogía con el “complejo militar industrial” denunciado por Eisenhower en 1961.[32] Relman describe el crecimiento de una vasta industria proveedora de servicios médicos, que genera en Estados Unidos en ese momento negocios del orden de cuarenta mil millones de dólares, y reflexiona sobre sus consecuencias posibles.


Treinta años después, ahora en todo el mundo, tenemos la experiencia diaria del crecimiento explosivo de esa industria. Los dos grandes pilares del negocio son la gigantesca industria farmacéutica, por un lado, y los complejos hospitalarios privados, con su red de servicios anexos, por otro. Un tercer elemento, estrechamente relacionado, es el también millonario negocio de los seguros médicos.


Desde un punto de vista estrictamente médico, el centro del complejo es la institución hospitalaria, cuyos servicios principales están centrados a su vez en la medicina curativa, e incluso, de manera más específica aún, en torno a los procedimientos quirúrgicos. Los laboratorios de diagnóstico, los centros de rehabilitación, las consultas médicas asociadas, los centros de tratamientos prolongados, giran en torno a ella.


El médico general actúa, en este contexto, como un verdadero agente comercial. Pide más exámenes de los que son necesarios, deriva a especialistas con un cierto carácter de apremio, receta fármacos provisorios, casi siempre paliativos, que a su turno serán descartados por el especialista y reemplazados por otros que cumplen la misma función. El paso al especialista repite la función, pero ahora de manera más específica… y más costosa. Nuevos exámenes, nuevos fármacos, nuevas sugerencias en torno a procesos hospitalarios.


El paciente es sometido a un metódico proceso de fomento paralelo de sus temores y ansiedades y de sus esperanzas. Una “pequeña manchita” en una radiografía es suficiente: nuevos exámenes… “sólo para descartar”.


La mercantilización de la medicina aumenta sus beneficios a través de la medicalización de la vida. Soledad Márquez y Richard Meneu apuntan sobre tres aspectos que la caracterizan:[33]

  • la redefinición de la percepción de profesionales y legos sobre procesos, mostrándolos como enfermedades que requieren intervención médica;
  • la proclamación de la eficacia invariable de la medicina científica, o su superioridad incontestable, oscureciendo la visión sobre sus riesgos;
  • la marginación de cualquier modo de intervención alternativo, incluyendo aquellos de probada eficacia empírica, como también la exclusión de cualquier forma de intervención desprofesionalizada.



La principal herramienta de la medicalización de la vida es el manejo monopólico e interesado del saber. Opera sobre la base de una fuerte asimetría que eleva de manera artificial el estatus del experto, y relega al paciente a la dependencia basada en una ignorancia producida y mantenida a propósito.


A pesar de los múltiples acápites al respecto en los manuales de ética médica, rara vez el profesional médico se detiene a explicarle al paciente las ventajas y desventajas de un procedimiento, y menos aún la existencia de alternativas. No es raro que se administren fármacos simplemente como pruebas, y se cambien casi sin advertencia, ante una queja del paciente con un simple “entonces probemos con este otro”. Desde luego, la educación sanitaria pública es casi inexistente, y sólo surge cuando la autoridad política se ve presionada por alguna epidemia, con un contenido que no pasa de “lávese las manos”, “use condón”, “quédese en su casa”.


Las bases de las terapias y técnicas médicas nunca son expuestas al público y, por supuesto, mucho menos sus contraindicaciones o riesgos. A través de los medios de comunicación, en cambio, se asiste a un verdadero bombardeo de información exitista, que destaca una y otra vez las bondades de los productos médicos, y las extiende como promesas.


Sobre este fondo de información fuertemente sesgada, la medicalización es posible por la difusión de mitos y ansiedades que tocan los temores más básicos de los seres humanos. Se induce una ansiedad permanente en torno a la búsqueda de la salud perfecta, a la creencia de que es posible el riesgo nulo, a la sobredimensión de todo dolor o sufrimiento, a la sobrevaloración de la etapa y estado juvenil como modelo de salud.


La noción de “factores de riesgo”, que fue introducida en el contexto de la medicina preventiva social para promover medidas de salud pública,[34] como el combate al consumo de tabaco o alcohol, se ha convertido en una vía para el adelantamiento y el escalamiento diagnóstico, es decir, para convertir situaciones comunes en “pre-enfermedades” y tratarlas luego como si fueran por sí mismas ya enfermedades.


Una operación que, por supuesto, carece de toda base metodológica. Los factores de riesgo son simplemente asociaciones estadísticas entre una práctica o un estado y una enfermedad. No son ni necesarios ni suficientes para provocarla. Están construidos sobre indicadores que tienen rangos de variación muy amplios de un individuo a otro. Son capaces de decirnos algo genérico, sobre una población, que no necesariamente se aplica a cada individuo. O, para decirlo en términos más técnicos, no tienen utilidad clínica alguna.


Todas estas dificultades metodológicas simplemente se omiten. Se estrechan artificialmente los márgenes de la normalidad estadística. Se aplana la población en torno a lo que se decide como normalidad, y se promueve la medicación de todo el que se aparte.


Un ejemplo cotidiano es la hipertensión. La presión sanguínea es un indicador que presenta una alta variación entre los seres humanos. En algún momento, y sin mayores estudios, se decidió que había un margen de variación normal, más allá del cual había riesgo de toda clase de alteraciones catastróficas. Sin embargo, sin considerar que esa variación de una persona a otra es continua, se empezó a razonar de manera dicotómica, distinguiendo simplemente entre valores normales y patológicos. Por esta vía la llamada “hipertensión”, que no es por sí misma una enfermedad, empezó a ser tratada como tal.


Por supuesto, a casi nadie diagnosticado de esta manera se le ha hecho un estudio a lo largo del tiempo para establecer su presión sanguínea normal, aquella con que ha funcionado normalmente toda su vida. Ni menos aún un estudio, también a lo largo del tiempo, de sus familiares, para establecer si hay alguna asociación genética en los rangos de presión con que ha funcionado hasta aquí. Homogeneizando artificialmente respecto de una población abstracta, y sobre la base de unas pocas mediciones, la persona queda convertida en hipertensa, cuestión que, entre otras cosas… contribuye a subir su presión.[35]


Como he señalado antes, las intervenciones médicas conllevan riesgos y beneficios, y se aplican simplemente porque se estima que los beneficios pueden superar ampliamente a los riesgos. Como los factores de riesgo son obtenidos a partir de estudios sobre toda una población, y como en esa población sólo una parte está en riesgo mayor, cuando se aplican medidas de prevención homogéneas sólo algunos reciben el beneficio, mientras que, en cambio, todos son expuestos al riesgo.[36]


Juan Gérvas y Mercedes Pérez exponen un caso extraordinario, que deriva de las ansiedades que se han promovido en torno al cáncer de colon, y las molestias que supone hacerse una colonoscopía sólo preventiva de manera periódica.[37] La industria médica ha creado la manera de evitar esta molestia por medio de una colonoscopía realizada a través de una tomografía de positrones, cuyas imágenes son refinadas y elaboradas por un computador (PET - CAT). Este escáner se hace usando trazadores radioactivos. Una radiografía de este tipo expone al paciente a una radiación de 10 a 20 milisievert (que es la medida del efecto biológico de la radiación). Pero ocurre que el máximo de exposición a la radiación permitido por la Unión Europea es de 1 milisievert por año. Cinco tomografías de este tipo (en un examen que se supone debe ser periódico) equivalen a la radiación recibida por los sobrevivientes de Hiroshima. Es decir, la misma técnica de prevención induce otro de los factores de riesgo que se han establecido para el cáncer. Por supuesto, cuando a los pacientes se les hace firmar su consentimiento “informado” para este examen, no se les advierte en absoluto de este riesgo. La impunidad es posible en este caso porque el eventual desarrollo cancerígeno producido por esta vía puede demorar entre cinco y veinte años en manifestarse.


Los pacientes se han abalanzado sobre esta colonoscopía ultra tecnológica, y sobre muchos otros procedimientos que se proclaman preventivos, en todo el mundo, movidos por lo que hoy se llama “tráfico de enfermedades” (disease mongering). Los fabricantes de tecnologías médicas han promovido su ansiedad a través de campañas de “información” al consumidor sobre los múltiples factores de riesgo a que se encuentran enfrentados, y sobre las maravillas que los nuevos instrumentos diagnósticos y nuevos fármacos podrían conseguir. Campañas que tienen todas las características de la promoción mercantil, que surgen más de los departamentos de comercialización que de los laboratorios de investigación.[38]


La mayor parte de lo que los medios de comunicación muestran como “divulgación científica” proviene hoy de la industria médica. Congresos y seminarios internacionales dedicados a especialistas, líneas de investigación en universidades, seminarios dedicados a educadores y padres,[39] son financiados activa y masivamente por la industria, que se preocupa también activamente de los gestores de políticas públicas en salud, y de los organismos que ejercen control sobre las actividades médicas.


La misma Organización Mundial de la Salud (OMS) ha estado comprometida en las sucesivas alarmas mundiales por la gripe aviar, la gripe porcina, el retorno de la influenza española, que han resultado no ser más que la base comunicacional para la millonaria venta a los gobiernos de supuestas vacunas preventivas, como se ha denunciado recientemente.[40]


Por esta vía se han medicalizado aspectos perfectamente comunes de la vida, como el embarazo, la menopausia, el envejecimiento, el sufrimiento subjetivo, y se han elevado a la condición de pre-enfermedades los niveles elevados de colesterol, la osteoporosis y, desde luego, innumerables cuadros subjetivos que se tratan como conducentes a enfermedades mentales.


Un ejemplo absolutamente generalizado es la medicalización del embarazo y el parto.[41] Los controles con instrumentos de alta tecnología, el régimen de vida controlado con parámetros médicos. Ocurre que, después de cien años de continuos avances en la higiene de los hospitales, la alta variabilidad de virus y bacterias ha empezado a hacer cada vez más difícil mantener los niveles de asepsia que se habían alcanzado. Debido a esto es cada día más probable salir de un hospital con enfermedades que se han contraído en el hospital mismo. En estas condiciones es un riesgo completamente inútil hospitalizar el parto. Hoy en día es más seguro establecer las condiciones de asepsia adecuadas en la casa y tener los bebés en su mismo hogar como, por lo demás, se ha hecho siempre, en la mayor parte de la historia humana. Pero todos podemos ver, a diario, el panorama en que en salas estresantes la matrona retrasa un parto con el solo objetivo de que llegue el obstetra (“que sí es médico”), mientras la asisten enfermeras y anestesistas, monitoreados por una parafernalia tecnológica. Y todos sabemos (y nadie lo oculta) que el sentido global de semejantes cuidados no es sino el costo que tienen todos esos servicios.


2. Medicina social y medicina medicalizada

Como se puede ver en los ejemplos anteriores, una parte importante de la expansión del negocio médico deriva de la medicalización de la medicina preventiva.


Se pueden enumerar patrones generales de la medicalización:

  • el énfasis en la medicina curativa;
  • la sobrevaloración de los procedimientos quirúrgicos;
  • el énfasis en la cura local, que conduce a la circularidad terapéutica: la curación produce daños colaterales que son a su vez tratados como si fueran enfermedades independientes;
  • la tecnologización excesiva y artificiosa;
  • la sobrevaloración de las terapias farmacológicas;
  • la promoción de nuevas enfermedades y el escalamiento diagnóstico de las pre-enfermedades;
  • un régimen de monopolio y administración interesada de la información al usuario;
  • una sobreprofesionalización organizada rígidamente y de manera jerárquica en torno a la figura del médico, en desmedro de todos los otros profesionales de la salud (que suelen ser considerados como “auxiliares de la función médica”);
  • una organización también rígida y jerárquica en torno a la institución hospitalaria, que actúa como modelo y meta de toda otra institución relacionada con la salud.


Es sobre este fondo general que la medicina preventiva y la medicina paliativa son medicalizadas:

  • se limita su desarrollo a las prácticas que giran en torno a la institución hospitalaria;
  • se pone todo el énfasis en la prevención secundaria y terciaria, es decir, en la que opera sobre el que ya se considera enfermo, o sobre el que ha sufrido daños originados en las propias intervenciones terapéuticas;
  • se pone todo el énfasis en la prevención a través de fármacos o de instrumentos de alta tecnología.


El ejemplo palmario de esta tendencia es el popular “chequeo médico”, que ha llegado a convertirse en un derecho para los trabajadores, y se practica de manera rutinaria.[42] Curiosamente, nunca se ha demostrado que sea realmente útil a nivel general, pero es el lugar ideal desde el cual empezar el escalamiento diagnóstico, además de ser por sí mismo un gran negocio. Las empresas mandan cada año a sus trabajadores, los medios nos apremian con su necesidad. Aun en el caso de no encontrar nada el negocio se ha realizado.


No es demasiado difícil, frente a todo esto, formular las condiciones generales de una medicina preventiva social, que la devuelva, entre otras cosas, a lo que fue su origen. Una medicina preventiva centrada en la prevención primaria y general, que procede en y a través de la comunidad, promoviendo la autonomía del usuario, democratizando el saber, desprofesionalizando todas las áreas en que los usuarios pueden ejercer el saber médico común, educando para la salud y no para la curación de la enfermedad. Una medicina preventiva que investiga las causas ambientales y sociales precursoras de las causas directas, que investiga los trastornos que la enfermedad produce en su contexto social, y que procura establecer patrones de salud global, estrechamente relacionados con la calidad de vida. O, en suma, justamente una medicina que desmedicaliza la preocupación por la salud.


Esta desmedicalización del ámbito preventivo debería ser correlativa a la del ámbito de las medidas paliativas del dolor. El sufrimiento no es por sí mismo una enfermedad, como tampoco lo es el dolor físico. La intervención paliativa, en los contextos de recuperación, o de enfermedades incurables, deberían tender a aumentar la calidad de vida globalmente, más que a la suspensión local del dolor que, muy frecuentemente, consiste en la sedación simple, sin la menor consideración por el estado subjetivo del paciente (su angustia, su desesperanza), ni de los que lo rodean (la impotencia, la ansiedad que produce el no saber nunca cabalmente cual es el estado médico en que se encuentra el paciente). Miles de veces se han invocado experiencias como las del doctor Doherty Hunter "Patch" Adams, que muestran que el mejoramiento de la calidad de vida del paciente tiene incluso efectos clínicos objetivos. Pero otras tantas veces naufragan ante la indiferencia o la ironía de un gremio insensibilizado de manera artificial por su poder.


Cuando la medicina se desmedicaliza aparece recién el contexto adecuado para valorar no sólo la eficacia y productividad del modelo médico de enfermedad sino también para entender lo valioso que puede ser reconocer sus límites. Reconociendo y respetando cabalmente ese modelo aparece con claridad qué situaciones vitales no pueden o no deben ser consideradas como enfermedades.


La primera cuestión, desde luego, es mantener la conexión de cada uno de sus términos (causa, mecanismo de acción, síntomas) con realidades orgánicas, de tipo biológico: no deberían llamarse, ni tratarse como enfermedades las alteraciones que tienen un claro origen subjetivo o social (como el ejercicio de la voluntad, el consumismo, o la rebeldía).


La segunda cuestión es que no deberían tratarse como enfermedades los trastornos genéricos, asociados al ciclo vital de los seres humanos: la dentición de los niños, el embarazo, el parto, la menopausia, la vejez, las variaciones naturales de la función sexual, el proceso de morir.


Un tercer aspecto es que antes de decretar la intervención médica sobre los casos de indicadores diagnósticos que se desvían de la media (como el peso y la talla, la presión arterial, el nivel de colesterol, la distribución hormonal) debería exigirse un detenido estudio, extendido en el tiempo y hacia el contexto, para determinar hasta qué punto esa desviación es realmente patológica o forma parte de la propia “normalidad” del afectado. Es decir, distinguir claramente las acciones de prevención general, que están destinadas a una población, de las acciones de prevención que se pueden promover en el ámbito clínico de casos particulares.


Y esto conduce a una cuarta cuestión, muy de fondo, y llena de contenido ético: no deberían considerarse enfermedades las desviaciones de la normalidad estadística que son de algún modo constituyentes de un sujeto particular y que, como tales, no tienen, propiamente, curación. Nada justifica tratar como enfermedad, por ejemplo, a la ceguera irreversible, a la discapacidad permanente debido a una amputación, al Síndrome de Down.


Incluso más, y acentuando el carácter ético de todo el asunto, hay enfermedades que en algún momento deberían dejar de ser consideradas como un asunto médico. Típicamente, mientras una enfermedad degenerativa se puede contener o retardar de manera significativa, el gremio médico puede intentar lo que está a su alcance. Cuando este límite ha sido sobrepasado, y las técnicas disponibles no logran producir ninguna contención significativa, la palabra y la acción deberían pasar en primer lugar al paciente y, en todo caso, a su entorno familiar. En esos casos el gremio médico debería deponer su vanidad y soberbia habitual y reconocer que su misión no es mantener la vida de manera simple y abstracta, sino promover la salud, la buena vida. Cuando el buen vivir se ha vuelto simplemente imposible debería ser un derecho prioritario y exclusivo de los ciudadanos particulares optar por un buen morir. Y la vocación de servicio y humanidad que da sentido profundo al oficio médico debería moverlo a colaborar en ello.[43]


III. El modelo médico en neurología

a. El problema general

El campo más extendido, y probablemente el más rentable, de la industria médica es hoy la medicalización del sufrimiento subjetivo. No sólo las grandes alteraciones del comportamiento que clásicamente se incluyeron en la “locura”, sino alteraciones comunes (como la timidez, el nerviosismo, la ansiedad), e incluso comportamientos comunes, que en el curso de una vida no suponen mayor alteración (como la tristeza, las dificultades para dormir, la despreocupación por la higiene o la rebeldía juvenil) han sido caracterizadas como enfermedades, siguiendo la lógica del adelantamiento y el escalamiento diagnóstico.


La medicalización, con sus utopías de riesgo nulo, salud permanente y máxima, prevención sobredimensionada, ha conducido a la utopía del sufrimiento nulo, y a la atención apremiante de todo dolor local o temporal. Pero, sobre todo, ha ido convirtiendo progresivamente toda prevención y todo abordaje de los problemas subjetivos en un asunto médico, con sus secuelas de sobrediagnósticos, de terapias farmacológicas (incluso meramente preventivas), y de sometimiento de los ciudadanos comunes a la omnipotencia del saber médico incluso en los asuntos que conciernen a su pura interioridad subjetiva.


Es interesante constatar que este extremo tiene sus raíces en el origen mismo de la psiquiatría moderna, entre los siglos XVI y XVII. La idea de que el alma misma puede sufrir fue extraña para la época clásica, y no fue introducida en el pensamiento moderno hasta el siglo XIX, a través de filósofos como Sören Kierkegaard y Arturo Schopenhauer. Antes que ellos imperó la idea cartesiana de que en realidad lo que experimentamos como males del alma no son sino expresión de alteraciones corporales, que se imprimían en ella. Existió, para decirlo de otro modo, una idea “somatopsíquica” de la alteración mental, exactamente inversa a lo que se suele aceptar hoy como “psicosomático”.


Cuando la medicina empezó a abordar directamente la anatomía y fisiología del sistema nervioso, recién a fines del siglo XIX, con Broca, Ramón y Cajal y Pavlov, la base de esta influencia somatopsíquica se concretó en la investigación del cerebro, y el modelo médico de enfermedad mental adquirió el fundamento que tiene hasta hoy: “de alguna manera” las alteraciones en la fisiología (e incluso en la anatomía) del cerebro afectan la actividad mental, y luego, “de alguna manera” esto se traduce en alteración del comportamiento. Esto configura el modelo específico dominante. Las causas hay que buscarlas en el sistema nervioso, los mecanismos en la actividad mental, los efectos en el comportamiento.


Es importante señalar desde ya, y lo detallaré más adelante, que la psiquiatría siempre conoció, incluso desde antes de la modernidad, enfoques alternativos, que tendían a correlacionar la locura, y las alteraciones del comportamiento, más bien a causas sociales y ambientales. Esa notable y persistente corriente minoritaria, verdadera contracultura respecto de los usos predominantes del gremio médico, nunca logró, sin embargo, imponerse al enfoque somatopsíquico, y terminó por sucumbir ante el embate y la hegemonía de la nueva psiquiatría de orientación neurológica. A lo largo del siglo XX las orientaciones fenomenológicas (que derivan de Karl Jaspers) y psicoanalíticas (desarrolladas por la escuela freudiana) fueron sus mejores representantes. La situación actual, sin embargo, es que han llegado a considerarse plenamente complementarias del enfoque neurológico, con lo que éste ha terminado de sentar su completa hegemonía.


Si el enfoque neurológico en psiquiatría es correcto, el modelo médico debería poder aplicarse, en sus aspectos fundamentales, a las alteraciones del comportamiento. Debería ser posible observar de manera directa e independiente sus causas en el funcionamiento del sistema nervioso, se debería poder especificar cómo se las arregla el sistema nervioso para convertir su actividad, meramente fisiológica, en actividad y experiencia subjetiva, y debería también ser posible identificar en el comportamiento, de manera directa e independiente, los cambios producidos a partir de cambios determinados en su base orgánica. Muchas tareas, todas importantes.


Por supuesto el desarrollo y grado de éxito de estas tareas es completamente desigual. Sobre el problema que podríamos llamar “intermedio”, el de cómo la actividad del sistema nervioso logra convertirse en experiencia subjetiva, simplemente reina el más absoluto desconcierto. Desdeñado por el gremio de los investigadores médicos como un asunto metafísico, se encuentra hoy en manos de un grupo de filósofos de la psicología que pugnan con argumentos contrapuestos en torno a lo que llaman “el problema mente – cuerpo”.[44] Sólo neurólogos extremadamente ingeniosos, pero abiertamente marginales (como Francisco Varela[45]) se han atrevido a abordarlo directamente con ánimo científico. A lo sumo se ha avanzado tímidamente, en términos científicos, en las controversias que mantienen biólogos y matemáticos en torno a la posibilidad de fabricar “inteligencia artificial”.[46]


Los psiquiatras de orientación neurológica, sin embargo, no se han intimidado en absoluto ante tamaña y profunda incertidumbre. Lisa y llanamente se han “saltado” el mecanismo y se han dedicado a buscar correlaciones directas entre aspectos del sistema nervioso y aspectos del comportamiento. Algo que equivale en la práctica a correlacionar el bacilo de Koch con la fiebre, sin detenerse nunca a examinar su acción sobre el pulmón, lo que obviamente conduce a no reconocer la acción del bacilo mientras no haya fiebre, o a buscar detrás de cada caso de fiebre sólo al bacilo de Koch.


Para decirlo en términos más generales, la falta de conocimiento sobre el modo de desarrollo específico de una enfermedad impide establecer claramente si las intervenciones que procuran aliviar los síntomas son de manera real curativas, y las hace indistinguibles de simples paliativos. En el peor de los casos impide establecer si los procedimientos que se presumen como curativos mejoran o empeoran el desarrollo mismo de la enfermedad, aunque temporalmente puedan aliviar los síntomas.


Pero, como veremos, a los psiquiatras actuales parece no preocuparles demasiado la diferencia entre curación y paliativo, lo que no obsta, sin embargo, para que sigan proclamando a sus procedimientos como acciones médicas.


En rigor la argumentación contra la psiquiatría de base neurológica podría terminar aquí. La gruesa carencia de una descripción efectiva de cómo se desarrollan orgánicamente, es decir, en términos médicos, las afecciones que llaman “enfermedades mentales”, bastaría para declarar a todos su procedimientos como meros paliativos, que no curan a nadie, y abrir con eso un debate franco sobre el valor ético que tienen. Un debate, por supuesto, que ya no sería en absoluto sobre cuestiones médicas.


La situación real, sin embargo, es que los psiquiatras de orientación neurológica proclaman que sí saben cómo ocurre el desarrollo de tales enfermedades. Pueden hacerlo porque han reducido la esfera del desarrollo patológico sólo a los mecanismos que parecen observables en el sistema nervioso. Y sostienen que la observación de esos mecanismos puede considerarse como la observación de las causas, y que intervenir sobre ellos puede ser considerado como una acción curativa, si no en el sentido de una erradicación, al menos en el de una contención permanente, como ocurre (y este es el ejemplo invocado una y otra vez) con la administración de insulina para contrarrestar los efectos de la diabetes.


Aun aceptando que esta notable reducción (después de todo no es lo mismo “saltarse” las causas de la diabetes que “saltarse” la subjetividad de un ser humano) quedan, sin embargo, poderosos obstáculos en el camino. El primero es establecer qué es lo que puede ser observado en el sistema nervioso. El segundo es si se pueden caracterizar los comportamientos de tal manera que se puedan correlacionar con rasgos específicos del sistema nervioso. El tercero es si esa correlación, dados eventualmente los términos, es realmente posible.


No debe extrañarnos en absoluto que esta formulación del problema no sea sino la versión en términos neurológicos de las aporías que han atravesado toda la historia de la psiquiatría moderna. Exactamente los mismos términos, con cada uno de sus acápites, podrían formularse para la psiquiatría fundada en la teoría de los humores, que dominó sin contrapeso el oficio entre los siglos XV y XIX en Europa, y que extiende sus raíces a través de la medicina árabe, romana y griega. La comparación es notable, y arroja grandes enseñanzas. Pero no es probatoria. Podría ocurrir que los psiquiatras que la usaron estuviesen realmente equivocados pero los actuales sí hayan dado en el clavo.


Examinaré ambas cosas. Primero, en este capítulo, me detendré en los métodos de observación del sistema nervioso para mostrar que la corriente principal de la psiquiatría actual no tiene realmente la base científica que proclama. Este es un asunto directamente de neurología y epistemología de la neurología. En el capítulo siguiente expondré la proyección del modelo médico como conjunto sobre la psiquiatría, remontándome en su historia y detallando algunas de sus prácticas para mostrar que esta diferencia entre lo que el gremio proclama y el saber que realmente posee (y sus consecuencias, tantas veces atroces) es una constante en su historia.


b. Modos de observación del sistema nervioso[47]

1. Técnicas quirúrgicas

La posibilidad de observar en vivo, de manera interna y en tiempo real, la anatomía y el funcionamiento del cuerpo humano es uno de los mayores triunfos en la historia de la medicina. Y es extraordinariamente reciente. Fibras ópticas de grosor milimétricos pueden hoy invadir el cuerpo humano a través de diversos canales de una manera relativamente inocua y, literalmente, iluminar el interior y obtener imágenes en color real, mejoradas hasta hacerlas óptimas con un computador. Los métodos de escaneo a través de ultrasonido (ecografías), de trazadores radioactivos (como la tomografía de positrones), o de resonancia magnética nuclear, han permitido poderosos avances en el diagnóstico y vigilancia de innumerables situaciones clínicas, y son justamente considerados hoy como indispensables en el ámbito de la medicina curativa. Sus éxitos, impresionantes, se han sucedido con una rapidez increíble, en el lapso de apenas cuarenta años.


Investigar el sistema nervioso, y en particular el cerebro, ha sido siempre más difícil que examinar el resto del cuerpo. Se sabe desde siempre que invadir físicamente el cerebro puede tener consecuencias mucho más serias que hacerlo con cualquier otro órgano. Es por eso que la cirugía sobre el cerebro se desarrolló de una manera mínimamente segura recién a lo largo del siglo XX, aunque tiene precedentes que se remontan incluso al neolítico. El asunto crucial, sin embargo, en la observación del sistema nervioso no es sólo el que se observe algo sino qué es lo que se observa, y cómo lo que se observa se relaciona con la función que se le atribuye. No es lo mismo observar la función respiratoria, o la función renal, que la función “mental” de un órgano. Y es por eso que, aunque de manera tardía, la neurología se ha sumado llena de entusiasmo a la investigación altamente tecnológica sin poder dejar atrás sus mitos, sus dificultades epistemológicas tradicionales. Para decirlo de una manera más directa: en neurología, más que en cualquier otro campo de la investigación del cuerpo humano, nunca el asunto es sólo metodológico, siempre hay una componente epistemológica profunda que afecta a todo aquello que resulte eventualmente observable.


El primer método de examen del cerebro, y por muchos siglos el único disponible, fue la intervención mecánica. Primero a partir de la observación de los efectos de las heridas producidas en el cráneo, después a través de la intervención quirúrgica. Ya Hipócrates (460-370 A.C.) observó que las convulsiones que ocasionalmente producían las heridas de guerra ocurrían en el cuerpo en el lado opuesto de donde ocurrían en la cabeza. Hay evidencia de que se practicó la trepanación del cráneo en muchas culturas (entre ellas, consta en las momias de la cultura Arica), y también que se practicó el examen post mórtem con fines de investigación en la Biblioteca de Alejandría. Pero en realidad es sólo desde mediados del siglo XIX que esta línea de investigación se hizo sistemática, y se convirtió en una tradición permanente.


Aunque, curiosamente, la craneología de Franz Joseph Gall (1758-1828) y Joahnne Spurzheim (1776-1832) no estaba respaldada por la exploración sistemática del cerebro mismo (cuestión que comentaré más adelante), su enorme influencia motivó a algunos admiradores a emprenderla. Uno de los más conocidos fue Pierre Paul Broca (1824-1880). No sólo se dedicó al examen sistemático, post mórtem, de muchos cerebros, sino que empezó a coleccionarlos: llegó a tener en su casa cerca de ¡3500! cerebros conservados en formol. En esta colección, que aún se conserva parcialmente en el Museo del Hombre, en París, figura hasta hoy… el propio cerebro de Broca.


A pesar de su entusiasmo, y del material a su disposición, Broca es famoso por haber inferido, a partir de una herida, en ¡un solo caso!, la localización supuesta del área cerebral que sería responsable del lenguaje, llamada hoy “área de Broca”. En su informe de 1861 describe el caso de un ciudadano francés al que sólo se refiere como “Tan”. No contento con esta curiosa inducción sobre un caso único, estudió, tres años más tarde, doce cerebros de personas que en vida había tenido problemas de afasia, y encontró que nueve de ellos también tenían dañada esta área. Esta extensión de su inducción aparentemente lo dejó satisfecho (no agregó ni un solo caso más), y lo hizo famoso hasta hoy.


Una figura en muchos sentidos paralela a “Tan”, en la historia de la psiquiatría, es el obrero ferroviario Phineas Gage (1823-1860), quien sufrió el 13 de septiembre de 1848 un accidente en que una barra de hierro, de un metro de largo y tres centímetros de diámetro, le atravesó lado a lado la cabeza. Gage, sin embargo, quedó consciente, a los pocos minutos hablaba, y a los dos meses, a pesar de haber perdido un ojo, estaba sano y fue dado de alta. Su caso fue descrito por primera vez recién veinte años después, en 1868, por el doctor que lo había atendido, John Martyn Harlow, quien afirma que Gage, tras su recuperación se había vuelto retraído, impaciente, irreverente y blasfemo (digamos, le “cambió la personalidad”). Por cierto, el mismo doctor refiere, sólo al pasar, que Gage tuvo que dejar su trabajo, que fue exhibido en un circo (de donde proviene la foto que se conserva de él con la barra de hierro como fondo). El doctor no parece advertir que a pesar de todo esto logró trabajar normalmente por un año y medio en una caballeriza, o que incluso, quizás cansado de la estigmatización, fue capaz de viajar a Chile, donde trabajó normalmente en los ascensores de Valparaíso durante otros siete años, para volver junto a su madre cuando se sintió enfermo, en California, donde murió en 1860.


Los casos de “Tan” y Gage, y su tratamiento por científicos como Broca, muestran algo que de muchos modos es común hasta hoy en neurología: la tendencia a generalizar de manera falaz, sobre evidencias escasas y dudosas. Los que sonríen al saber que Broca relacionó el peso y el tamaño del cerebro con la inteligencia, con tan mala suerte que su propio cerebro quedó justo debajo de la media,[48] deberían alarmarse al saber que Antonio Egas Moniz (1874-1955) estableció el procedimiento de la lobotomía después de experimentar con tan sólo un chimpancé, luego del cual la practicó sobre pacientes pobres, declarados locos, obteniendo un 6% de muertes… y recibió el Premio Nobel de Medicina por ese descubrimiento.


Pero también, ambos casos apuntan hacia las paradigmáticas figuras de Broca y Egas Moniz, con su extraordinaria mezcla de investigadores rigurosos y creyentes de las fantasías más extrañas. Porque el hecho es que ambos realizaron efectivamente investigaciones detenidas en muchos casos, pero fallaron invariablemente en todas las situaciones en que sus convicciones previas, meramente prejuiciosas, podrían haber sido impugnadas desde las evidencias empíricas. Stephen Jay Gould ha sido muy eficiente en mostrar cómo las creencias de Broca en torno a la relación entre volumen del cerebro e inteligencia estaban basadas en largas investigaciones, y como, al mismo tiempo, Broca caía una y otra vez en las falacias metodológicas más triviales cuando se enfrentaba a evidencias que lo contradecían.[49] Una tendencia que, siendo común en todas las disciplinas científicas, es particularmente frecuente en la historia de la neurología, con desastrosas consecuencias para los ciudadanos comunes.


Desde un punto de vista epistemológico las evidencias obtenidas a partir de heridas son extremadamente débiles. Son incidentales, no son reproducibles, ni homologables y, como tales, no pueden ser generalizadas. Pero, por sobre todo, no son, ni siquiera en sentido pragmático, probatorias. Si bien pueden establecer tentativamente la necesidad de cierta área cerebral para una cierta función (daño en el área de Broca, daño en el lenguaje), no logran establecer que esa conexión sea suficiente (daño en el lenguaje, daño en el área de Broca), ni menos aún que esa área cerebral se dedique siempre, y de manera exclusiva a esa función. La correlación no sólo es incidental sino que no cumple con las condiciones necesarias para afirmar, en sentido pragmático, que haya una conexión causal.


La exploración quirúrgica puede hacerse también de manera sistemática. Desde hace más de un siglo se practican experimentos a cráneo abierto sobre gatos, perros y monos, y muchas veces sobre seres humanos. El objetivo inmediato era estimular mecánicamente y, en la mayor parte de los casos, dañar o cortar una pequeña región para constatar el efecto sobre las capacidades sensoriales o motoras. Técnicas que fueron sobrepasadas muy luego por las lesiones producidas por medios eléctricos, químicos o criogénicos, en general más precisas y controlables.


Estas técnicas de exploración local sistemática están, sin embargo, llenas de incertidumbres, errores experimentales y supuestos poco plausibles. Como ya he indicado, puede ocurrir que al activar un área del cerebro se active una función motora o sensorial, pero eso no muestra que esa área sea una condición suficiente, ni mucho menos exclusiva para el ejercicio de esa función. Ni siquiera, ahora, cuando se pueden constatar de manera reiterada y sistemática.


Son técnicas que no pueden, por otro lado, constatar la relación inversa (otras, más adelante, sí pretenderán hacerlo), es decir, constatar que al activar la función sí se activa el área correspondiente, esto sobre todo porque están en su mayoría basadas en el daño o extirpación del área que exploran.


Pero, además, el mismo proceso experimental es dudoso. Dada la altísima interconexión entre neuronas, establecidas muchas veces a través de distancias del orden mismo del cerebro, es imposible asegurar que el daño local se circunscribe justamente al área afectada. Es perfectamente posible que al dañar un área específica esto afecte de manera esencial otras áreas, incluso distantes, que no están bajo escrutinio.


Aun así, quizás el aspecto más débil de todo el intento es el supuesto, a priori, de que el cerebro efectivamente actúa distribuyendo sus funciones de manera analítica, en localizaciones específicas. Se supone con eso, de manera circular, justamente aquello que se quiere mostrar. Y, peor aún, consistentemente la corriente principal de la neurología ha desechado las teorías y evidencias que podrían apuntar en la dirección contraria (que el cerebro actúa de manera global, equipolar, esencialmente distribuida), relegándolas a la impugnación de una minoría de neurólogos disidentes que, sin embargo, ha sido consistente y permanente.


Por otro lado, el correlato “mental” de esta debilidad teórica (no olvidar que seguimos lidiando aquí con la centenaria dualidad cuerpo – alma), es el supuesto, también gratuito, de que la actividad cognitiva podría separarse en componentes que tengan eventualmente una base neuronal determinada. Esto es, que el ser sujeto, o el tener una personalidad, sea alguna forma de composición de cuestiones tales como la memoria, la atención, las emociones, las percepciones, las actitudes, etcétera. O, también, el supuesto de que estas capacidades pueden ser analizadas y examinadas por separado, de manera lineal. En realidad, en el campo de la psicología de los siglos XIX y XX, todas las discusiones al respecto, todos los intentos de lograr un acuerdo general sobre cuáles serían y cómo podrían caracterizarse semejantes componentes han fracasado rotundamente.


Por supuesto, este fracaso que, por lo demás, en el campo de la psicología nadie niega,[50] produce una situación curiosa: los experimentos buscan la localización de funciones, facultades o propiedades que nunca han sido definidas de manera generalmente aceptable.


Muchos neurólogos han advertido este problema, pero lo han enfrentado en general de una manera operativa e inmediata: “llamo percepción del color rojo a la reacción de tal o cual locus neuronal”. Pero esto no hace sino convertir la investigación en un círculo: no se constata que se ha percibido el color rojo a través de una reacción neuronal sino que se define tal percepción por esa reacción. Y, peor, impide toda “composición” significativa posterior hacia entidades mayores, como la memoria, la atención, etcétera.


Consignemos, por último, en este apartado, sobre la intervención quirúrgica, dos mitos. Uno es la simpática y curiosamente machista idea acerca de las diferencias funcionales entre el hemisferio izquierdo y el hemisferio derecho del cerebro, que goza de una casi universal aceptación en las cátedras de neurología de las escuelas de psicología y, a la vez, en las revistas del corazón. Otro, también muy popular, es la teoría de los “tres cerebros”.


Ocurre que es posible literalmente cortar el llamado “cuerpo calloso” que conecta ambos hemisferios, y aun así mantener viva, e incluso lúcida a una persona. Como es esperable tras tamaña intervención se han observado toda clase de efectos conductuales en los afectados. A pesar de que tales efectos nunca han sido sistematizados y observados de manera regular, la simple constatación de ciertos casos, típicamente pocos, como en casi todos los “grandes descubrimientos” de esta ciencia, llevó a Robert W. Sperry (1913-1994, ganador del Premio Nobel de medicina en 1981) a la conclusión no sólo de que eran el origen de diferencias funcionales, sino que estas tenían un patrón. Michael S. Gazzaniaga, en 1983, examinando las respuestas a cuestionarios simples de pacientes en esta condición llegó a la conclusión de que cuestiones como la capacidad de cálculo, el intelecto, ciertas emociones vinculadas al poder, residían en el hemisferio derecho, mientras que cuestiones como los afectos, la capacidad para las artes y la cocina, residían en el hemisferio izquierdo. Rápidamente esto se convirtió en el aserto general de que el hemisferio derecho (diestro) tiene características “masculinas”, y el izquierdo (siniestro) “femeninas”… y así es enseñado hasta el día de hoy, desde luego bajo la autosatisfecha introducción de siempre: “la ciencia ha demostrado que…”. El trabajo, más reciente, de Robert Efron ha mostrado cabalmente, sin embargo, que toda esta construcción no es sino un mito.[51] Demás está decir que hoy en día muy pocos neurólogos serios la comparten.


Menos adhesión aun, entre los científicos, tiene la idea fundada en una proposición hecha por James Papez (1883-1958) en los años 30, de que habría en los seres humanos “tres cerebros” o, más bien, tres capas evolutiva y funcionalmente distintas: un “cerebro reptil”, otro “cerebro paleo mamífero” y otro “cerebro neo mamífero”. Papez atribuyó al sistema límbico en el cerebro el control de las emociones, esta idea fue desarrollada y extendida por Paul McLean (1913-2007), en los años 50, hasta llegar a la teoría de la triple estructura. Por fin, en los años 70, McLean escribió numerosos artículos que generalizaron la teoría y la popularizaron. Según ella el fondo evolutivo y funcional “reptil” sería el que maneja la agresividad, la territorialidad, las reacciones básicas necesarias para la supervivencia; sobre (literalmente) esta capa el sistema límbico “paleo mamífero” sería responsable del manejo de las emociones; y la llamada neo corteza, “neo mamífera” sería la que hace posible el pensamiento racional.


Nuevamente, como en el mito anterior, esta teoría ha alcanzado una increíble popularidad, sobre todo en las corrientes de pensamiento alternativo que se afirman en diversas formas de la “biología del amor”, y también, curiosamente, en las cátedras de neurología, a pesar de no contar prácticamente con ninguna contrastación científica favorable.


Sin embargo, resulta igualmente increíble el impacto que ambos mitos han producido tanto en el gremio, que los usa regularmente en sus “explicaciones” a los pacientes, como en los ciudadanos comunes, que han sido de alguna manera “educados” a través de ellos, sensibilizados, para una fácil aceptación de las pretensiones de la psiquiatría de orientación neurológica. En virtud de una transferencia de certeza digna de estudio, el fondo de este par de creencias míticas conduce a la fácil aceptación de otros mitos, ahora mucho más determinados, referidos a dolencias particulares, y a la idea de que la ciencia tendría ya perfectamente claro el modo en que el cerebro procesa la información relativa a los procesos cognitivos y emotivos. Impresiones, ideas en torno a lo que se habría hecho, sensación de saber probado, que sin embargo no pasan de eso, impresiones, sensaciones, sin respaldo real… pero con una enorme fuerza social. Con toda la fuerza de nociones socialmente aceptadas que les faltan justamente en su calidad de ideas presuntamente científicas.


2. Técnicas eléctricas

Pero las objeciones fundamentales que pesan sobre todo intento de localizar procesos cognitivos en lugares específicos del cerebro, y que pueden formularse ya desde las técnicas más básicas y los experimentos más antiguos, no han detenido en absoluto los entusiasmos de la neurología, que ha vuelto una y otra vez con diversas herramientas sobre el mismo objetivo.


Las técnicas de estimulación eléctrica, y luego el registro de la actividad eléctrica del cerebro, inflaron notablemente ese entusiasmo, sobre todo desde el descubrimiento de correlaciones estables entre áreas cerebrales y funciones motoras y, en menor medida, con áreas sensoriales.


Desde que Luigi Galvani (1737-1798) descubrió la reacción muscular de una rana ante un estímulo eléctrico, en 1791, esa asociación se convirtió en la fascinación no sólo entre neurólogos, sino en la cultura popular. Ya en 1817 la novelista Mary Shelley[52], que entonces tenía sólo veinte años, describió la obsesión del doctor Víctor Frankenstein, que llegó a dotar de vida a un homúnculo fabricado a partir de partes de cuerpos humanos aplicándole una descarga eléctrica.


En el plano científico esto llevó a las observaciones de Claude Barnard, desde 1858, que de algún modo culminaron en la formulación de la idea de “córtex motor” por Gustav Fritsch (1837-1937) y Eduard Hitzig (1839-1907) en 1870. Hay que notar que el conocimiento científico del cerebro es, comparado con otras áreas científicas y médicas, extraordinariamente reciente. Sólo en 1848 Emil Du Bois-Reymond (1818–1896) detectó que el cerebro producía corrientes eléctricas. Recién en 1837 Johannes Evangelist Purkinje (1787-1869) había descubierto la neurona, y sólo en 1888 Santiago Ramón y Cajal (1852-1934) estableció a la neurona como unidad funcional básica del cerebro.


Es en este contexto que Richard Caton (1842-1926) empezó a usar galvanómetros, en 1877, para medir la respuesta eléctrica del cerebro a estímulos motores o sensoriales. Con esto se completó un círculo bastante deseable: se puede estimular un área del cerebro eléctricamente y comprobar el efecto motor o sensorial que eso produce y, a la inversa, se puede estimular un área motora o sensorial del cuerpo y comprobar el efecto eléctrico que produce en el cerebro.


a Desde 1877 la estimulación eléctrica y la recepción de señales eléctricas desde el cerebro ha progresado enormemente desde un punto de vista técnico, pero apenas si se ha movido desde el punto de vista del saber neurológico. A pesar de que hoy se consideran relativamente bien establecidas las áreas cerebrales dedicadas al control motor de diversas partes del cuerpo, subsisten grandes incertidumbres respecto del grado en que las áreas sensoriales están localizadas. Como ejemplo de esto se puede citar la investigación más activa, a la que se han dedicado muchos cientos de millones de dólares por su eventual interés militar e industrial, que es la del mecanismo de la visión. A pesar de la enorme inversión de recursos, y un par de Premios Nobel de por medio, no logra conducir, hasta hoy, más que a logros meramente parciales, y a controversias sin término.[53] Por sobre esto, en cualquier actividad cognitiva que vaya más allá de las sensaciones simples, los resultados no logran ser menos controversiales ni estar mejor respaldados que las inducciones de Broca sobre doce casos.


Para entender esto es bueno insistir en lo formidable de la tarea que se quiere llevar a cabo con herramientas tan precarias como estimular localmente y captar respuestas. Ocurre que es posible insertar micro electrodos incluso en neuronas individuales, para vigilar así los estados de la actividad nerviosa en el nivel más básico y elemental posible. Sin embargo el grado de interconexión del tejido neuronal es tal que las interacciones entre neuronas resultan fuertemente no lineales, es decir, están a cada momento afectadas por acciones inversas, potenciaciones, retroalimentaciones, de una complejidad tal que es imposible de rastrear. Un simple grupo de tres neuronas, que reciben inputs desde miles de terminales, que mantienen miles de conexiones entre sí, que pueden descargar lo que elaboran a través de otros miles de terminales, es capaz de generar un patrón de salida imposible de predecir, o siquiera de computar aun con los más poderosos computadores imaginables. Hay que decir que se suelen hacer experimentos recolectando información hasta de cien neuronas individuales. Los resultados, sin embargo, son sometidos a gruesas aproximaciones estadísticas (para que puedan ser tratados computacionalmente) hasta el grado en que las conclusiones posibles se hacen irreplicables y vagas. En general, debido a esto, lo que se puede mostrar como resultado son sólo mapas de respuestas promedio en un área, y nunca el cuadro de las interacciones mismas entre las neuronas, que es el que podría tener algún sentido respecto de la supuesta elaboración de información que contendría.


Aunque estos intentos en el nivel microscópico se siguen haciendo, en realidad las promesas espectaculares (y nunca cumplidas) de la neurología del siglo XX han provenido desde hace mucho del campo del registro macroscópico de la actividad del cerebro.


En ese ámbito una técnica que en su momento pareció sensacional es la del electroencefalograma (EEG). En 1914 Vladimir Pravdich-Neminsky detectó voltajes transcraneales en perros, y en 1924 Hans Berger (1873-1941), en la Universidad de Jena, lo hizo en seres humanos. Con electrodos superficiales se pueden medir voltajes a través del cráneo (del hueso, del líquido raquídeo y de la gruesa tela protectora que es la “dura madre”…), y lo que se considera significativo de ellos es la frecuencia de su variación que, extendida en el tiempo, se puede graficar como ondas. Se suelen distinguir ondas delta (entre 1 y 4 oscilaciones por segundo, o 1-4 Hertz [Hz]), theta (7-9 Hz), alfa, que son las de mayor energía (10-12 Hz), beta (21-23 Hz) y algunas de muy baja energía, las gamma, alrededor de los 50 Hz.


Parte de la expectación que produjo el EEG es que se consiguió por primera vez una técnica de observación no invasiva, que podía mostrar lo que parece ser el funcionamiento del cerebro en su estado normal, en tiempo real. Cuestión muy superior, en principio, a los estudios post mórtem, o a la invasión quirúrgica o eléctrica, de las que nunca se puede estar seguro de que no introduzcan ellas mismas factores que alteren la normalidad de lo que se observa.


Muy pronto se descubrió que se podían correlacionar las variaciones, en particular la de las ondas alfa, con la diferencia entre sueño y vigilia, y que se podía usar con éxito para localizar tumores o lesiones internas relativamente grandes (de un centímetro o más). Se descubrió un patrón específico para la epilepsia en los momentos en que no se expresa como convulsiones, lo que lo convirtió en una poderosa herramienta diagnóstica para este mal. Y se encontró también que las ondas alfa parecen desactivarse con el aumento de la “actividad mental”, una relación negativa (cuando aumenta una la otra desaparece).


Es este último hecho el que abrió la esperanza de “descifrar” los gráficos del EEG, es decir, correlacionar pensamientos o emociones específicas con las variaciones de sus ondas. La técnica para hacerlo era eminentemente simple: exponer a un sujeto a un estímulo que produjera en él algún tipo de estado intelectual o emotivo y examinar luego el EEG obtenido desde él, en directo, en tiempo real. El resultado fue un fracaso rotundo y general. Nunca se han podido establecer correlaciones estables o definidas entre ningún estado cognitivo definido y su correspondiente registro en las ondas del EEG.


Quizás esto se deba a que el EEG recoge en realidad sólo la sumatoria de toda la actividad eléctrica del cerebro, perdiéndose completamente en ella los detalles de las interacciones entre neuronas o entre eventuales áreas funcionales específicas. Pero quizás esto se deba también a otra posibilidad, señalada por John L. Kennedy, entonces en la Universidad de Princeton, tras una investigación extremadamente ingeniosa en 1959.[54]


Ocurre que, en general, cualquier cuerpo cargado eléctricamente al moverse produce ondas electromagnéticas, es decir, ondas como las que registra el EEG. La sospecha de Kennedy surge del hecho de que las neuronas podrían perfectamente generar señales eléctricas SIN producir ondas como las alfa, y que, para que estas ondas se produzcan es necesario que miles de neuronas sincronicen su actividad de algún modo que produzca ese resultado global. Kennedy se preguntó cómo se produce y en qué consiste esa sincronización. Y tuvo una idea genial: construyó una masa de gelatina común con la densidad, volumen y forma del cerebro, la cargó eléctricamente, la hizo oscilar por medios puramente mecánicos… y obtuvo el mismo tipo de ondas electromagnéticas que muestra habitualmente el EEG.


Su conclusión es que lo que el EEG detecta no es en realidad resultado de la actividad neuronal, sino simplemente ondas electromagnéticas producidas por el movimiento interno que el flujo y la presión sanguínea producen sobre esa masa gelatinosa, cargada eléctricamente, que es el cerebro. Mide sólo el efecto de una acción mecánica, no las sutilezas de la actividad mental.


No debería extrañarnos ya, dadas las peripecias de la historia de la neurología relatadas hasta aquí, que el notorio experimento adverso de John L. Kennedy haya sido, lisa y llanamente, pasado por alto. Exactamente al revés, ya desde antes se había especulado que quizás la actividad mental sí se expresaba en el EEG pero sólo como un murmullo de variaciones en las ondas registradas que quedaba enmascarado por el ruido eléctrico producido por el propio aparato de medición. Es interesante observar que no había ningún indicio que apuntara en esa dirección, sólo la idea a priori de que el EEG debía registrar de algún modo lo que todo el mundo esperaba.


La oportunidad llegó a lo largo de los años 50, con el desarrollo de técnicas generales destinadas a reducir el ruido eléctrico producido por radares o emisiones de radio, para mejorar sus señales. En los años 50 se usaron técnicas para rescatar desde el ruido eléctrico de fondo pequeños potenciales (diferencias de voltaje) después de registrar entre 50 a 100 veces la respuesta a un estímulo, mientras se obtenía el EEG. Con el desarrollo de la electrónica y la capacidad de manejo de grandes series de números de los computadores, este intento tuvo éxito.


Hay que considerar que en este procedimiento, que se llama Técnica de Potenciales Cerebrales Evocados (EVBP), se trata de captar variaciones del orden de 10 microvolts (10 millonésimos de volt), sobre la onda del EEG, que oscila entre variaciones del orden de 100 microvolts. Hay que considerar también que en los años 40 el ruido eléctrico de fondo, producido por los propios aparatos que registraban el EEG, podía variar entre los 100 y los 1000 microvolts. Lo que significa, incidentalmente, que los primeros grandes “descubrimientos” derivados del EEG se hicieron con registros que eran muy difícilmente distinguibles de la interferencia de la propia medición… pero se contaron como descubrimientos de todas maneras.


Con la EVBP, que alcanzó su apogeo en los años 60 y 70, se pudo correlacionar estímulos con respuestas de manera mucho más fina que con el EEG. Sobre su uso pesaron siempre, sin embargo, las incertidumbres de los métodos estadísticos empleados, la engorrosa necesidad de medir hasta cien veces una respuesta para obtener sólo un promedio estadístico, y la interferencia inevitable de la onda gruesa del EEG desde la cual los pequeños potenciales eran rescatados. Se ha señalado que no se puede asegurar la estabilidad de la actividad neuronal a lo largo del tiempo que requieren esos cien ensayos, lo que introduce datos espurios en los promedios. Se ha señalado la vaguedad de los estímulos cuando son exteriores, como un dibujo, una idea, una emoción (la imposibilidad de definirlos claramente: ¿a qué aspecto del estímulo está respondiendo el cerebro?), y su imprecisión cuando son directos, como ocurre a través de electrodos (es decir, no se puede saber claramente la extensión del área que es estimulada por el electrodo).


Esto condujo a resultados bastante estrechos, como medir tiempos de reacción a estímulos, o constatar si un canal sensorial funciona o no, o localizar la activación neuronal de elementos extremadamente simples, como bordes, contrastes intensos o colores puros (cuestión que Humberto Maturana discute). Más allá de esto, se fracasó completamente en la tarea de identificar las zonas de activación neuronal ante cualquier actividad cognitiva medianamente compleja.


Hay que recordar, por supuesto, un problema de fondo, general, que afecta a todas estas técnicas: a lo sumo pueden indicarnos dónde ocurre algo, pero nunca qué es lo que ocurre. El contenido, por así decirlo, “mental” se les escapa completamente. Por ejemplo, “ve algo” (en el sentido operativo de que se activa el centro de la visión), pero sin poder determinar “qué ve”. Y este es uno de los puntos conceptuales y empíricos fuertes de las teorías de Humberto Maturana: ocurre que al llamado “centro de la visión” llegan muchísimos más estímulos desde dentro del propio sistema nervioso que desde la retina, con lo que el contenido de lo que llamamos “ver” queda esencialmente indeterminado e inaccesible.


Una última cuestión, nuevamente curiosa, se puede decir a propósito del EVBP. Esta técnica es el origen de otro mito urbano, de los que abundan en neurología, la idea de que se podría controlar “mentalmente” un objeto a través de señales emitidas directamente desde el cerebro. La tarea consistiría en conectar electrodos estratégicamente ubicados en la cabeza, y usar pensamientos o estímulos cognitivos para provocar potenciales que luego, amplificados y conducidos por alambres, puedan servir para manipular un artefacto mecánico. Semejante poder que, desde luego, nunca se ha conseguido, reaparece con increíble regularidad en los medios de comunicación, proclamado por diversos científicos y centros de investigación neurológica, y asociado a cada nuevo avance en los instrumentos usados para explorar el cerebro. El hecho concreto es, sin embargo, que nunca se ha podido distinguir claramente entre lo que provendría de la actividad neuronal y las triviales interferencias simplemente musculares o vasculares que son inseparables de tales experimentos. Cada éxito en este “control mental” proclamado se hunde en las sombras de la sobreinformación, y pronto deja de ser mencionado… para aparecer meses o años después renovado, bajo la proclamación de que “ahora sí…”


Las técnicas de EVBP, a pesar de que se volvieron cada vez más accesibles por el avance tecnológico “pasaron de moda” (aunque todavía muchos las usan) ante la pobreza de sus resultados por un lado, y ante la avasalladora emergencia de una nueva moda, mucho más poderosa (y mucho más cara): la de las técnicas para obtener imágenes en 3D del cerebro (casi) sin invadirlo. El precedente de todas ellas es la observación a través de rayos X.


3. Imágenes a través de rayos X

El descubrimiento de los rayos X por Wilhelm Röntgen (1845-1923) en 1895 fue uno de los primeros descubrimientos científicos convertidos en “espectaculares” por la prensa amarilla. No hay que descartar este hecho cuando se considera que le valió, por sí solo, el Premio Nobel de Física en 1901, el primero que se concedió. Apenas unos meses después del hallazgo Randolph Hearst, magnate de este tipo de medios, urgió a Tomás Alva Edison para que lo reprodujera y obtuviera imágenes del cerebro. Edison trató de hacerlo pero al poco tiempo renunció, movido quizás por la sospecha de que tal técnica “no invasiva” podría tener efectos sobre algo tan delicado como el tejido nervioso. Sin embargo Hearst obtuvo rápidamente las imágenes (en realidad de cráneos, no de cerebros) y estas aparecieron con carácter sensacionalista en sus diarios. Un espectáculo que hemos visto repetido en los últimos años con las imágenes obtenidas por tomografías de positrones a cerebros de jóvenes “violentos”, exhibidas en primera plana por medios que hoy suelen considerarse “serios”.[55]


Hoy sabemos las increíbles dosis de radiación que esos primeros rayos X arrojaban sobre el cuerpo, cuestión que justamente en el caso del cerebro los hacía además inútiles pues impedían distinguir tejidos blandos. Cuestión que se repite tal cual cuando nos enteramos hoy de las dosis de radiación de orden cancerígeno de los primeros trazadores radioactivos que se usaron… para detectar el cáncer.


Con rayos X de menos energía, sin embargo, se logró distinguir tejidos blandos desde los años 20, y la capacidad de detección aumentó luego a través de procedimientos que para el cerebro (no para otros órganos) son más o menos bárbaros, como inyectar sustancias fosforescentes, o aire (en los ventrículos cerebrales), para aumentar el contraste, técnicas conocidas como “angiograma” y “pneumo encefalograma”.


Hoy en día es posible proyectar rayos X sobre pantallas que los captan, elaboran la imagen por medios computacionales, y permiten emitirla por un televisor, lo que hace posible observar el resultado en tiempo real, cuestión más útil (y cara) que la tradicional fotografía en negativo, que se sigue usando comúnmente.


Una nueva revolución en este campo se produjo con el desarrollo, en 1971, de la tomografía[56] asistida por computador, o tomografía axial computarizada (CAT), por Godfrey Housfield y Allan Cormack. Esto permitió no sólo un notable aumento de la resolución por corrección de imágenes, sino también la representación de los tejidos en cortes sucesivos y en imágenes tridimensionales.


La utilidad de los rayos X, y más aún de la tecnología CAT, para innumerables campos y aplicaciones de la medicina es innegable. Se trata de valiosísimas herramientas, que se usan hoy con bastante seguridad, y que han contribuido a salvar probablemente decenas de miles de vidas. Nuestro asunto aquí, sin embargo, es si estas técnicas pueden contribuir a establecer cómo funciona el cerebro, y cómo emergen desde él las capacidades cognitivas. Afortunadamente prácticamente ningún neurólogo actual defendería tal posibilidad. Salvo, quizás, algún enconado partidario de la frenología de Franz Joseph Gall.


El asunto es relativamente simple. Ocurre que con estos medios se pueden establecer formas y volúmenes en el cerebro, pero no su actividad. El análisis de que son capaces es anatómico pero no funcional. Por supuesto sirven para detectar tumores y lesiones en vivo y en tiempo real de un modo no invasivo que es notablemente superior a cualquier otra técnica anterior. También se podría correlacionar esas lesiones con cambios en el comportamiento del paciente. Pero, como hemos visto antes, y en este campo milagrosamente todo el mundo parece estar de acuerdo, la evidencia obtenida de este modo es meramente incidental, no es reproducible, da cuenta sólo de correlaciones puntuales que no permiten juicios causales pragmáticos y, por sobre todo, no nos dicen nada sobre el contenido específicamente subjetivo del que podrían ser portadores o manifestaciones.[57]


En el campo de la exploración de eventuales contenidos mentales, o de correlaciones entre actividad neuronal y comportamiento, sin duda alguna, hoy en día llevan la delantera absoluta las nuevas técnicas para obtener imágenes justamente funcionales, es decir, de la actividad neuronal.


4. Imágenes obtenidas a partir de emisión de positrones

Existen los electrones positivos, se llaman positrones. Esto no debería ser ninguna novedad, puesto que se conocen desde 1932. Lo es, sin embargo, en sentido relativo, porque son muy poco familiares en la naturaleza. Son producidos espontáneamente por unos pocos procesos de decaimiento radioactivo. Cuando un positrón se encuentra con un electrón, cosa que ocurre casi de inmediato después de ser emitido, se disuelven ambos completamente en un par de rayos gamma, que pueden ser detectados con relativa facilidad. Los positrones “habituales” son emitidos desde el núcleo de ciertos átomos en que un protón decae dando lugar a un neutrón y un positrón (que acarrea su carga positiva). Esto produce un cambio químico en el átomo.


En las técnicas PET el trazador más usado (hay otros) es el agua que entre sus componentes tiene el isótopo oxígeno 15. Este átomo tiene una vida media de 2,04 minutos, tras la cual la mitad de los átomos de su clase en una muestra decaen y se transforman en nitrógeno 15. Después de otros 2,04 minutos decae la mitad de los que quedaron, y así sucesivamente hasta acabarse, siguiendo la ley que es común a todo decaimiento radioactivo. Estos 2,04 minutos son su “vida media”.


Usar esta agua H2O15, radioactiva, es particularmente útil porque, administrada al paciente por la vía sanguínea, el oxígeno que contiene se fija fácilmente en la hemoglobina, y puede ser entonces usado para detectar, a través de su emisión de positrones, el recorrido de la sangre, el flujo sanguíneo. Los positrones emitidos se mueven por el tejido hasta aniquilarse y los rayos gamma que producen pueden ser registrados en una imagen.


Las tomografías PET fueron desarrolladas de un modo simple, con diversos trazadores, desde fines de los años 50, con imágenes resultantes de dos dimensiones. La aplicación de las técnicas computacionales de corrección de imágenes y la extensión a imágenes de cortes y de tres dimensiones se logró sólo completamente sólo desde principios de los años 70. Se conocen sustancias radiactivas que se fijan de manera diferencial en los tejidos cancerosos, por lo que la técnica PET se usa regularmente para detectarlos y establecer su estado de desarrollo. Por otro lado, en la medida en que permiten seguir la irrigación sanguínea, se puede usar para establecer el estado de funcionamiento de varios órganos en los que esto es vital. Su uso ha sido criticado habitualmente por las dosis de radiación que se deben inducir en el cuerpo para obtener sus registros que, como he indicado en un capítulo anterior, suele superar hasta diez veces los niveles de radiación considerados aceptables para un ser humano.


En el caso de su aplicación en la investigación del cerebro, el uso del PET se basa casi exclusivamente en su capacidad para captar, en tres dimensiones y con buena resolución, la irrigación sanguínea. La lógica de la cadena de supuestos que preside su uso no es ni simple ni directa, y debe ser expuesta con detalle para entender las objeciones que se le pueden hacer.


La primera cuestión, como está expuesto, es notar que el PET no mide, ni registra, actividad neuronal ni, mucho menos, actividad subjetiva. Lo que registra es el flujo sanguíneo, y ello, aun, a través del oxígeno radioactivo que se ha fijado en la hemoglobina.[58] En la medida en que puede detectar la diferencia entre la hemoglobina que aún lleva oxígeno y la que lo ha liberado, puede detectar no sólo la presencia de sangre sino también las zonas en que está siendo metabolizada.


El paso siguiente es que se sabe que las neuronas consumen oxígeno en las fases claves de su actividad. Se infiere a partir de esto que las zonas en que la hemoglobina es metabolizada corresponden a aquellas en que hay actividad neuronal. Se supone entonces que es esta actividad neuronal la que puede ser correlacionada con las manifestaciones conductuales, estímulos o respuestas, del paciente.


Una de las grandes virtudes de este procedimiento es que permitiría imágenes globales y tridimensionales de la actividad neuronal, sustantivamente más completas y complejas que las evidencias que se podían obtener de los exámenes locales que, ahora, aparecen comparativamente toscos, limitados e ingenuos.


Se pueden hacer, sin embargo, importantes objeciones a los supuestos y a la confiabilidad del PET cuando es usado con este propósito. La primera tiene que ver con el modo en que realmente, en la práctica, se obtienen las imágenes finales, y las dudas que ese proceso real arroja sobre lo que se proclama como resultado.


La cuestión básica es que una imagen PET sólo muestra variaciones extremadamente tenues entre zonas activas e inactivas. Incrementar su claridad intrínseca aumentando la cantidad del trazador empleado significaría dosis de radiación inaceptables para el paciente, e interferiría con la actividad neuronal misma.[59]


Hay tres cosas que se hacen para aumentar la calidad de la imagen, y de las tres surgen nuevas objeciones. Una es bajar el umbral de lo que se considera “actividad”. El problema es que al hacerlo la detección se acerca simplemente al ruido eléctrico que produce el propio aparato de medición, y se hace indistinguible de registros producidos por variaciones eléctricas simplemente aleatorias.


Otra cosa es tomar muchas imágenes y someterlas a promedios estadísticos y procesos computacionales de disminución del ruido. El problema ahora es que el tiempo que demoran esas muchas imágenes (como la vida media del trazador es de 2 minutos se deben inyectar dosis de agua radioactiva varias veces) no permite asegurar la estabilidad de la zona que se supone activa, lo que introduce en un mismo promedio tanto momentos activos como otros que no lo son.


La tercera acción típica es medir, a través de dos series de promedios, dos momentos del cerebro, uno en que ha sido sometido a un estímulo (digamos, mostrar imágenes, o pedir al sujeto que haga alguna tarea “mental”), del que se supone que presentará actividad, y otro sin el estímulo, que se supone presentará un estado base. Lo que se hace luego es restarle punto a punto la imagen del estado base a la imagen del estado activo, para obtener una imagen que represente sólo los lugares activos. Son estas imágenes, extremadamente derivadas, las que aparecen habitualmente en los medios de comunicación.


Contra este método de sustracción se ha argumentado que siempre va a aparecer algún grado de diferencia entre ambas imágenes, se deba o no a la presunta activación debido al estímulo, ya que si no aparece todo el procedimiento se declararía simplemente inútil. Pero, a la vez, para que aparezca, lo que se hace es bajar arbitrariamente los umbrales de lo que se considera activación, con lo que las imágenes obtenidas podrían deberse simplemente a fluctuaciones ocurridas al azar, o a cambios meramente exteriores, no derivados del estímulo, como una simple arritmia cardíaca temporal: recuérdese que lo que se está observando es en realidad el flujo sanguíneo.


Debido a estos límites intrínsecos en el proceso de registro y medida, se ha puesto en duda que los escáneres PET obtenidos en una persona puedan tener validez general, es decir, que puedan ser replicados, o que se puedan obtener perfiles parecidos en otras personas. Ocurre que si bien el cerebro no cambia de manera significativa entre una persona y otra en el nivel macroscópico, sí lo hace, y de manera muy importante, en el nivel microscópico que detecta el PET, de tal manera que al comparar las imágenes finales obtenidas de varios individuos las similitudes podrían deberse simplemente al azar de sus configuraciones anatómicas, y no a características que realmente tengan en común. Aun así, muchas investigaciones actuales pretenden descubrir patrones comunes simplemente por la vía de promediar escáneres obtenidos de muchas personas distintas. Nos encontramos así, nuevamente, con lo que ya podríamos llamar “síndrome de Broca”: el uso falaz de las inferencias estadísticas a partir de colecciones cuya variabilidad no las hace realmente susceptibles de la homogeneidad mínima necesaria para que tales inferencias sean posibles. Las estadísticas de peso y volumen cerebral y su correlación con la inteligencia… todo un paradigma para la investigación neurológica.


Pero el asunto crucial en esta, como en todas las técnicas de observación del cerebro, no es tanto el que estemos observando “algo” sino, más bien, “qué” es lo que observamos. Una respuesta plausible ante las complejidades técnicas del PET es que quizás sólo observamos constelaciones de actividad y ruido mezclados simplemente al azar.


Aun en el caso de que el PET logre establecer áreas de actividad neuronal, a través de la metabolización que ocurre en la irrigación sanguínea, ocurre que a través del mismo PET se ha establecido que el cerebro puede reaccionar a través de patrones de activación muy distintos ante un mismo estímulo. Esto puede deberse, a que, debido a su fuerte interconexión neuronal, es capaz de hacer la misma tarea de diversos modos, o a que nunca se puede delimitar claramente a qué aspecto del estímulo está respondiendo cada vez. Pero entonces, si esto es así, carece de todo sentido el hacer promedios sobre las cincuenta o más mediciones que son necesarias para obtener cada imagen, y las imágenes resultantes aparecen como meras construcciones estadísticas que no revelan justamente lo que sería valioso, que no es sino el modo y la diversidad de los patrones que resumen.


Pero hay más. Los umbrales mínimos de actividad que se pueden establecer antes de que la medición se confunda con el ruido electrónico y estadístico de fondo no tendrían por qué ser justamente aquellos que el cerebro mismo posee. Hay muchas razones para pensar que bajo esos umbrales podría haber toda una actividad neuronal que sea el verdadero origen de lo que, como epifenómeno, nuestras técnicas permiten detectar. Y esta posibilidad debe ponerse en conexión con el hecho de que la correlación entre irrigación sanguínea y actividad neuronal dista mucho de ser directa y lineal. Ocurre de hecho que es difícil replicar una imagen resultante del PET con otra tomada en condiciones iguales a través de fMRI, y se piensa que esto ocurre porque ambos difieren en la estimación de los tiempos en que la sangre simplemente se acumula en un capilar, antes de ser metabolizada.[60]


Por supuesto, tampoco el principal supuesto de todos puede ser claramente sostenido: la correlación entre actividad neuronal determinada y actividad subjetiva determinada. En contra de todas las apariencias, y a pesar de lo que se proclama a diario en los medios de comunicación, ningún neurólogo serio se ha atrevido a sostener correlaciones estables y replicables entre tipos y formas de actividad neuronal obtenidas por PET y actividades cognitivas medias o superiores.


El asunto es, obviamente, esencial, por lo que merece un momento de insistencia y especificación. Todo lo que se ha proclamado con cierta seriedad hasta hoy son correlaciones globales con estados globales. Por ejemplo, formas de irrigación cerebral específicas (y a la vez completamente genéricas, por su vaguedad) para los pacientes que sufren el mal de Alzheimer. Nadie ha sostenido haber observado cosas como los patrones de la sexualidad, o de la agresividad. ¿Le parece esta una afirmación extraña? ¿No ha visto estas afirmaciones una y otra vez en los medios de comunicación? Pues bien, el desafío es el siguiente: “subir” desde el titular de las noticias hasta lo que especifica el cuerpo del texto, “subir” luego desde estas informaciones periodísticas a lo que se supone son sus fuentes, examinar estas fuentes (no es difícil, suelen estar disponibles en línea) y lo que efectivamente afirman… los espectaculares “descubrimientos” se diluyen con una rapidez increíble, y se transforman en afirmaciones vagas o promesas de lo que se podrá hacer en un futuro igualmente vago.


Pero, aun así, si las llamadas fuentes parecen ser aún bastante firmes (como es el caso de lo que parecen saber nuestros profesores de neurología en escuelas de pregrado), el desafío se puede continuar: ¿qué actividades cognitivas?, ¿dónde están ubicadas?, ¿qué investigación fundamental es la que se invoca?, ¿cuántos casos fueron examinados?, ¿qué umbrales de actividad neuronal se consideraron aceptables?, ¿cómo se logró distinguir la activación de una función cognitiva específica de todo el resto de la actividad neuronal del cerebro?


Pero, bueno, siempre hay una técnica “de última generación” de la que se proclama que sí podría hacer lo que las anteriores no hacen. ¿Podría haberse logrado todo esto a través de los novísimos escáner que logran imágenes a partir de la resonancia magnética nuclear?


5. Imágenes obtenidas a través de resonancia magnética nuclear (MRI)

La resonancia magnética nuclear, que se conoce desde 1937, se produce cuando se superpone una señal de radio con la energía emitida por átomos sometidos a un campo magnético muy intenso. Cuando ambos términos entran en resonancia, es decir, cuando los máximos de ambas ondas electromagnéticas coinciden, se produce una señal característica de cada átomo, que puede ser registrada. Esta señal es máxima en el más simple de los átomos, el hidrógeno.


Como el hidrógeno, esencialmente en el agua, está presente en todos los tejidos, y como su efecto de resonancia depende de los complejos moleculares en que está inserto, la resonancia magnética puede ser usada para detectar diferencias entre diversos tejidos. Desde 1971 Raymond Damadian, y luego desde 1973 Paul C. Lauterbur, lograron construir para captarla complejos detectores, para los que se requieren sofisticados desarrollos tanto en ingeniería como en el tratamiento de datos. Desde 1977 se fabricaron, combinando todos estos elementos, aparatos capaces de detectar diferencias de tejidos en seres humanos.


Su éxito fue extraordinario. Se pudieron registrar, con una resolución de milímetros cúbicos, diferencias claramente discernibles entre tejidos sanos y tejidos cancerosos, pudiendo ser mostrados en tres dimensiones con un alto grado de validez. Casi de inmediato los grandes fabricantes de tecnologías médicas invirtieron enormes sumas en su desarrollo, hasta que llegó a convertirse en uno de los instrumentos de diagnóstico más precisos y confiables en la historia de la medicina.


Las imágenes convencionales obtenidas a partir de resonancia magnética (MRI) sólo registran formas, volúmenes, y diferencias de tejidos. Son, por decirlo de alguna forma, estáticas, y establecen diferencias anatómicas. Se parecen en esto al CAT obtenido a partir de rayos X, pero su resolución y capacidad para distinguir tejidos es muy superior.


La posibilidad de usar imágenes de manera funcional, es decir, para establecer actividad orgánica (y no sólo formas) proviene, nuevamente, de la hemoglobina. Ocurre que la hemoglobina portadora de oxígeno (radioactivo o no) responde de una manera claramente distinta a la resonancia magnética que la que ya lo ha liberado. De esta manera, a través de la metabolización de la hemoglobina, se puede detectar el flujo sanguíneo, es decir, las zonas en que la sangre está siendo usada más o menos activamente. Ahora, sin la necesidad de trazadores radioactivos, se tiene una técnica con igual o mejor resolución que el PET para registrar… irrigación sanguínea. Usada de esta manera, se habla de registros por resonancia magnética funcional (fMRI).


Nuevamente tengo que insistir aquí, porque quizás ya he acumulado demasiadas posibilidades de ser acusado de oscuro adversario del progreso científico y técnico, que considero que el desarrollo de la MRI y de la fMRI es un progreso revolucionario en la historia de la medicina, y que no dudo en absoluto de su utilidad en los más variados campos. Pero nuestro asunto es otro, y muy determinado. Es la posibilidad de establecer las bases neuronales del comportamiento y sus contenidos subjetivos.


La fMRI, que es la que para estos propósitos más interesa, sufre en general de los mismos problemas de fundamento que se pueden oponer al PET. Y algunos otros. Desde luego lo que registra no es actividad cognitiva, ni tampoco actividad neuronal, sólo logra detectar la diferencia entre zonas en que la hemoglobina lleva aún su carga de oxígeno y zonas en que ya la ha depositado y, a través de esto, el flujo sanguíneo. Nuevamente aquí es necesaria una cadena de supuestos que parecen fáciles pero que no son nada de obvios.


Suponemos una correlación entre actividad mental o cognitiva y actividad neuronal. Sin embargo esta correlación no es ni necesaria ni directa. Como mínimo, para que haya actividad cognitiva seguramente es necesario algún tipo de actividad neuronal pero, a la inversa, la actividad neuronal no tiene por qué revelar actividad cognitiva: el cerebro se ocupa de muchísimas más cosas que de nuestros estados mentales.


Suponemos luego una correlación entre actividad neuronal y consumo de glucosa, para lo cual es necesario que la hemoglobina aporte su cargamento de oxígeno. Sin embargo puede haber, y de hecho es detectable, un nivel de actividad neuronal previo y por debajo de tal consumo de glucosa. Es decir, suponemos que las neuronas que presentan alto nivel metabólico son proporcionalmente más activas respecto de la actividad específica de la sinapsis que las que presentan menos. Es decir, suponemos una correlación directa entre actividad neuronal y activación, o procesos cognitivos que no tiene por qué ocurrir de manera necesaria.


Suponemos, por otro lado, que hay una correlación estricta entre zonas en que hay cambios metabólicos y el flujo sanguíneo, que en buenas cuentas es todo lo que se detecta, cuestión que tampoco tiene por que ocurrir de manera necesaria.


Pero aún, más allá, suponemos que la simple diferencia entre “activación o no”, que es todo lo que, eventualmente podemos registrar a través de esta cadena de supuestos, es suficiente para dar cuenta de los procesos de interacción fuertemente no lineales que hay entre las neuronas, en redes locales y lugares específicos del cerebro. Es decir, que un método de examen puramente lineal, de agregación y sustracción, de presencia o ausencia, permitirá comprender la lógica de un sistema fuertemente no lineal. Y hay que notar, estrechamente relacionado con esto, que los mapas de actividad que se registran no logran distinguir entre la eventual actividad de dos o más redes de neuronas que se superponen pero que podrían tener funciones diversas.


El enojoso problema técnico del método sustractivo se presenta también en la fMRI, con características peculiares, y agravado por la necesidad de mantener múltiples dispositivos electrónicos funcionando simultáneamente, habitualmente tres fuentes de campo magnético muy intensas y en gradiente, y tres fuentes de señales de radio sincronizadas para cubrir los tres ejes espaciales, como mínimo.


Ocurre que la señal que se obtiene por resonancia desde la hemoglobina oxigenada es apenas superior a la de la hemoglobina desoxigenada. Una diferencia que está completamente dentro del rango de ruidos electromagnéticos que produce el dispositivo en su conjunto. Debido a esto lo que se hace es restar punto a punto las imágenes obtenidas de una y otra para aislar sólo aquella diferencia. Aun así es necesario aplicar poderosos procesos computacionales de corrección para mejorar la definición de la imagen resultante. Un resultado relativamente nítido, sin embargo, sólo se obtiene promediando y sometiendo a correcciones estadísticas muchos registros de imágenes básicas.


Como he indicado respecto del PET, muchos de estos cuidados no son necesarios, o no son tan exigentes, para otros usos de la MRI o la fMRI, particularmente para aquellos que se limitan a establecer volúmenes, o diferencias de tejidos, o en que los mapas de irrigación sanguínea son menos intrincados que en el cerebro. Por eso estos instrumentos son extraordinariamente poderosos para hacer análisis anatómicos (como detectar tumores), y son más o menos eficaces para hacer estudios funcionales en general. Establecer un modelo de irrigación sanguínea del corazón, por ejemplo, resulta notablemente más viable, y el resultado es mucho más nítido y eficaz, que hacerlo con el cerebro.


El punto es crucial porque mientras que en unos casos el éxito de esta técnica puede ser espectacular, ocurre que justamente como medio para establecer patrones de actividad neuronal sus resultados apenas sobrepasan los umbrales del error sistemático producido por el propio aparato o, peor, cuando son corregidos computacionalmente para que lo hagan son escasamente distinguibles de patrones de actividad producidos simplemente al azar.


Y este factor de azar resulta decisivo todavía por otro lado. Como he indicado también en el caso del PET, ocurre que en los niveles de detección de actividad que eventualmente se registran las diferencias morfológicas entre el cerebro de una persona y el de otra son tales que resulta imposible atribuir algún significado real a los promedios que se hacen entre fMRI obtenidos de individuos distintos… que, a su vez, en realidad, son promedios de promedios…


Debido a esto carece completamente de contenido real, o de base empírica validable, afirmar que habrían patrones de actividad neuronal definidos para individuos violentos, esquizofrénicos, o depresivos. Ni las técnicas experimentales permiten establecer tales patrones de actividad de manera estable y confiable, ni la psiquiatría ha logrado establecer claramente, como examinaré más adelante, esos eventuales cuadros como patrones conductuales generales y característicos.


A pesar de estas múltiples objeciones, en la última década se ha asistido a un verdadero boom, en las revistas especializadas, de artículos que sostienen haber encontrado correlaciones altísimas, frecuentemente cercanas a uno (¡!), entre imágenes de fMRI y estados emotivos o cuadros de personalidad. En un estudio reciente (2009), Edward Vul, del MIT, y Christine Harris, Piotr Winkielman y Harold Pashler, de la Universidad de California, critican la inverosimilitud de tales resultados. En un análisis de 55 artículos obtenidos de publicaciones de corriente principal, muestran los serios, y hasta evidentes, errores metodológicos que están a la base de tales “demostraciones científicas”.[61]


Una amplia literatura crítica se puede encontrar también a propósito del uso de tales estudios en contextos legales, para agravar o eximir responsabilidades penales, en Estados Unidos. Es simpático, pero afortunado, que esta marea de críticas haya por fin logrado salir a flote a propósito del intento de eximir de culpa a John Hinckley, el joven autor del atentado contra la vida de Ronald Reagan, en 1983, alegando locura sobre la base de un informe obtenido a través de un examen PET. Desde entonces, en este contexto legal, las precauciones ante las pretensiones de la psiquiatría de base neurológica no han dejado de aumentar.[62]


6. El uso de drogas para “investigar” el funcionamiento del cerebro

Una forma que se ha usado para examinar posibles reacciones internas o efectos conductuales del cerebro es lisa y llanamente inundarlo de productos químicos que afecten el proceso de la sinapsis o la conductibilidad eléctrica de las neuronas.


He puesto la palabra “investigar” entre comillas en el título de esta apartado porque la verdad es que esto se ha hecho en contextos relativamente ajenos a los usos y espacios comunes y tradicionales de la comunidad científica. Primero, ya desde los años 30, en el contexto del delirio militar por producir un “suero de la verdad” que culminó (y fracasó notoriamente) con el uso cuasi criminal del pentotal sódico en prisioneros de guerra.[63] Luego, desde los años 50, en el contexto de las industrias farmacéuticas interesadas primariamente en la eficacia local e inmediata, e incluso meramente aparente, de fármacos para controlar el comportamiento.


Desde un punto de vista puramente científico estas investigaciones tienen en común un raro “globalismo”, diferente de la tendencia analítica que impera en la corriente principal de la investigación neurológica, que ha tendido siempre a buscar localizaciones específicas en el cerebro que se puedan correlacionar con actividades o contenidos cognitivos.


Este globalismo deriva de sus métodos. Se investigan los efectos de productos químicos sobre neuronas aisladas, y luego se administran masivamente esas sustancias sobre el sistema nervioso, a través de la sangre, ya sea de manera directa o a través de precursores que puedan sortear la barrera hematoencefálica y, en teoría, activarlos en el cerebro mismo.


Considerado de cerca, este resulta un método obligado. Por mucho que se pueda establecer el efecto de cada neurotransmisor en la sinapsis en neuronas aisladas, es completamente imposible en cambio aislar sectores del cerebro para administrarlos por separado y observar su efecto diferencial respecto de otros sectores. El método tiene, así, una limitación intrínseca: sólo permite correlacionar estados globales de contaminación con estados globales de comportamiento.


En realidad cualquiera de nosotros puede lograr observaciones primitivas del mismo tipo. Basta con suministrar dosis de alcohol a un sujeto experimental para ir constatando en su comportamiento los cambios progresivos, en general proporcionales a la dosis. Cuando se considera el método de esta forma, es inmediato notar que esto se ha hecho desde hace muchísimo tiempo. Se conoce con cierta claridad el efecto sobre el comportamiento de muchas sustancias. Hay euforizantes con mayor o menor efecto. Hay narcóticos o, como se suele decir ahora “inductores de sueño”. Hay analgésicos con eficacia local o general. Hay variadas sustancias capaces de producir delirios, alucinaciones, e incluso estados que se pueden describir de una manera muy general como “psicóticos”.


Las novedades en este campo provienen de que, desde principios del siglo XX, se han identificado sustancias específicas que intervienen en la sinapsis. Desde la adrenalina, aislada por William Bates en 1886, pasando por la acetilcolina, identificada en 1921, la norepinefrina (1948), dopamina (1952), serotonina (1948), el ácido gamma amino barbitúrico GABA (1950), las endorfinas (1973). Desde los años 60 la lista se ha incrementado enormemente. Hoy en día se conocen cientos de sustancias presentes en la sinapsis o que, introducidas artificialmente, podrían alterarla.[64]


De muchas de estas sustancias se conocen los efectos sobre neuronas aisladas. Sin embargo este es un saber en realidad extremadamente pobre. Ocurre que las neuronas consideradas de manera individual sólo hacen una tarea extremadamente simple: emiten o no emiten una señal eléctrica. Su verdadera potencia proviene en realidad de que, conectadas a otras, pueden ponderar miles de estímulos recibidos y convertir esa ponderación en una señal emitida hacia cientos o miles de otras neuronas. Es decir, la verdadera potencia de las neuronas es que operan en red, y la del cerebro es que se trata de una gigantesca red (diez mil millones de componentes) empaquetada de manera extraordinariamente densa (cada componente tiene cientos o miles de conexiones con otras). Es este extraordinario poder el que se escapa completamente cuando se logra entender el proceso de la sinapsis, el que ya es, además, por sí solo, extraordinariamente complejo. Es por esto que del saber sobre el efecto de un contaminante sobre una neurona (que activa, desactiva, acelera o ralentiza su acción) no se pueden inferir en absoluto las consecuencias que eso tendrá sobre la actividad del cerebro salvo, por supuesto, que se trate de efectos tan masivos como impedir su funcionamiento global.


El verdadero arte en juego, sin embargo, es el activar o desactivar selectivamente sólo un neurotransmisor a la vez y observar su efecto. Como está dicho, observarlo en una neurona aislada no permite inferir nada sobre el efecto que tendrá globalmente, debido a esto, y teniendo presente lo que se ha observado en neuronas aisladas, no queda más remedio que administrarlo globalmente al cerebro… y esperar.


Afortunadamente los primeros destinatarios de esa operación suelen ser ratas, eventualmente gatos o perros, y luego monos. Bueno, también pueden ser prisioneros de guerra. El límite evidente de este procedimiento es la extrapolación desde el modelo animal a sujetos humanos. De ahí la importancia para la ciencia que podrían tener los prisioneros de guerra.


El procedimiento habitual, y en general eficaz, es experimentar fármacos primero en ratas, luego en perros o gatos y luego en monos, para lograr un modelo de su acción que se aproxime progresivamente a lo que podría ocurrir si son aplicados en seres humanos. La base de este procedimiento está en las similitudes orgánicas objetivas entre ese tipo de animales y el hombre. Con más o con menos complejidad, básicamente el sistema circulatorio, o la función renal, de un mono es el mismo que el de un ser humano. Las diferencias funcionales, e incluso anatómicas, no son realmente importantes respecto de las dolencias específicas que son puestas a prueba. El asunto, entonces, no es negar en general la utilidad de modelos animales para la investigación médica, aunque pueda abrirse un debate al respecto. El asunto específico aquí es justamente la enorme diferencia funcional del cerebro humano respecto de cualquier modelo animal, sobre todo respecto de los aspectos que aquí se trata de poner a prueba, los que involucran la complejidad de la subjetividad.


Más allá de si se puede atribuir una actividad mental a los demás seres vivos, el asunto es que es demasiado obvio que describir comportamientos animales con categorías como “depresión”, “esquizofrenia” o “trastorno bipolar” no es sino una proyección antropomórfica. La consecuencia de esto es que tales descripciones sólo pueden atenerse a los efectos motores observados en esos animales, nunca a su contenido subjetivo. En la época de origen de estos experimentos se mostró con entusiasmo gatos “aterrorizados” ante ratones. Desgraciadamente los gatos, que en realidad mostraban una conducta de evitación ante cualquier objeto en movimiento (como una mano), no lograron dar a entender el contenido subjetivo de tal conducta por mucho que se les preguntó.


Dado que no es posible interrogar a los sujetos experimentales acerca de sus estados subjetivos (o que esos estados subjetivos están fuertemente alterados por el contexto, como en los prisioneros que han sido usados para estos fines), la correlación sólo puede ser conductual en el sentido más lato del término. No es posible saber si “agitación” corresponde, por ejemplo a euforia, miedo, angustia, o alegría. Lo que se observa es simplemente eso: agitación.


Como la correlación no puede ser sino global, las inferencias que se pueden hacer sólo pueden ser genéricas: induce sueño, induce agitación en diversos grados, induce parálisis muscular en diverso grado y extensión. Y esto implica, por supuesto, que la única clase de acción que podría demostrarse en las drogas ensayadas es la que producen sobre el control motor, lo que descarta de plano la pretensión de que podrían validarse por esa vía “antidepresivos” o “antipsicóticos”, y debería conducir al reconocimiento de que tales drogas son usadas en virtud de este poder sobre el aparato motor, y no por supuestas acciones en el plano de la subjetividad que se habrían mostrado en ensayos animales previos.


Es importante notar que en estos procedimientos se ha renunciado a entender el mecanismo de la actividad neuronal que los produce de manera efectiva en el cerebro. Sólo se sabe, en el más puro estilo conductista, el input global y el output global. Y se ha renunciado también a entender el origen de la correlación posible entre esos estímulos masivos y los eventuales contenidos subjetivos asociados.


Se puede ver la extraordinaria relevancia de esta omisión si consideramos la borrachera habitual que sigue al consumo excesivo de alcohol. Aunque los síntomas gástricos, de control muscular o de distorsión sensorial son, en términos gruesos, más o menos los mismos, hay una enorme variedad de estados subjetivos posibles que pueden estar asociados a ellos. Es un saber común, y muy antiguo, el que hay borracheras “felices”, “depresivas”, “pasivas”, “somnolientas”, etcétera. Y nadie duda en atribuir estas diferencias en primer término a factores ambientales, y luego a factores personales. Hay una amplia base empírica para hacerlo.


Si proyectamos esto sobre los experimentos con neurotransmisores, ocurre que no sólo es imposible anticipar los efectos subjetivos que tendrán, sino que tampoco se podrá anticipar si esos efectos serán únicos y generales cuando se cambien las condiciones ambientales, o cambie el estado anímico inmediatamente anterior del sujeto. En realidad, tal como en el caso del alcohol, sólo se podrán anticipar, y también gruesamente, los síntomas más genéricos: sueño, hiperactividad, pasividad, desconexión muscular.


Para decirlo de manera directa, esto hace que el valor de estos procedimientos para “investigar” o comprender los mecanismos neuronales que conducen a estados subjetivos determinados y generalizables sea prácticamente nulo. Es por eso que, a pesar de la enorme propaganda interesada que afirma lo contrario[65], en la práctica, las sucesivas drogas lanzadas al mercado para “modular el ánimo” no logran mucho más que actuar como sedantes, narcóticos, desactivantes musculares o funciones de ese tipo. Me detendré a examinar con más detalle esto en un capítulo posterior.


Digamos ahora, en el plano metodológico, que prácticamente toda la “investigación” actual se hace sobre personas que ya tiene alguna condición que se considera como “enfermedad” mental, y orientada expresa y exclusivamente a encontrar maneras de atacar los síntomas que se consideran más graves o inhabilitantes. Esto hace que se proclamen resultados de drogas particulares sobre síntomas particulares, desechando como “efectos secundarios” los que no están relacionados directamente con el síntoma que se quiere combatir. Es decir, la enorme mayoría de estas investigaciones NO están destinadas a entender el efecto global de la droga, que puede tener, como es obvio, aspectos favorables y desfavorables, sino sólo a aislar uno de sus efectos y ponerlo en conexión con alguno de los efectos del cuadro que se quiere combatir. Como examinaré más adelante, este obvio sesgo sistemático, que conlleva una mala comprensión del objeto investigado desde el principio (y, lo que es más grave, por opción consciente de los mismos investigadores), tiene además graves efectos sobre los pacientes que reciben estas drogas investigadas por sus aspectos positivos, sin una clara investigación de sus eventuales efectos negativos.


Pero además, aún en el plano estrictamente metodológico, la investigación a través de la administración de neurotransmisores o sus precursores adolece de serias falencias. La principal deficiencia reside en el supuesto gratuito de que estos neurotransmisores pueden ser examinados uno a uno. Consideremos, en primer término, que hay cientos de ellos. Consideremos luego el que habitualmente interactúan entre sí. Digamos también que esas interacciones pueden ser fuertemente no lineales, es decir, que el efecto conjunto no obedece a su sumatoria. Agreguemos por último que en el cerebro real no hay manera de separarlos, o de actuar sobre unos sin involucrar a otros. En fin, el cúmulo de complejidades que exceden el simplismo de los experimentadores es tal que reducen simplemente a polvo sus pretensiones de lograr correlaciones definidas y estables entre neurotransmisores específicos y rasgos específicos de la subjetividad.


Consideremos el ejemplo más popular y notorio, verdadero paradigma de la intervención farmacológica específica en la psiquiatría actual: la hipótesis que relaciona los niveles de serotonina con la depresión. La idea fue introducida en 1965 por Joseph Schildkraut, pero el candidato propuesto fue la norepinefrina. Arthur Coppen propuso, en cambio, el papel de la serotonina, en 1967.[66]


La serotonina se puede encontrar en muchas partes del cuerpo, en el torrente sanguíneo. Existe incluso una prueba diagnóstica estándar que usa sus niveles en la sangre como indicio de ciertos tipos de cáncer. Sin embargo, la barrera hematoencefálica impide que esta serotonina común pase al cerebro, por lo que este órgano la fabrica y usa de manera independiente. Esto es relevante porque no existen medios directos para medir los niveles de serotonina cerebrales en humanos. Los estudios se han hecho en animales o examinando cerebros post mórtem.


Cuando se consideran los estudios originales, justamente lo que se encuentra es lo que se estudió en realidad eran cerebros post mórtem de personas que habían cometido suicidio o serios intentos de suicidio. Se encontró en ellos bajos niveles de serotonina… respecto de otros cerebros post mórtem, puesto que nadie ha establecido cuales podrían ser los niveles normales de esta sustancia en cerebros que funcionen normalmente. Desde entonces se postuló, y se elevó al uso práctico con sorprendente rapidez, la idea de que aumentando esos niveles a través de sustancias precursoras que sí pueden atravesar la berrera hematoencefálica, se podría “curar” la depresión, al menos en el sentido de contenerla con eficacia. Frecuentemente los psiquiatras comparan esta acción con la de la insulina: no cura la diabetes, pero contiene de manera eficaz su principal síntoma… al precio de consumirla de manera indefinida.


Desde los años 80, muchos estudios han cuestionado la eficacia real de los fármacos basados en este principio, que son llamados “antidepresivos”.[67] Entre ellos es notable la línea de investigación del doctor Pedro Delgado y su equipo, en la Sección de Psiquiatría del Hospital Universitario de Cleveland.[68] Usando una mezcla de aminoácidos capaces de disminuir el aminoácido L-triptófano, un precursor directo de serotonina en el cerebro, afirma poder manipular sus niveles. Observemos, como he señalado antes, que esta manipulación es global, es decir, involucra simplemente a todas las zonas del cerebro.


A través de aumentar los niveles de serotonina encuentra que es posible mejorar la condición de personas que sufren depresión severa en términos de un progreso en la escala de indicadores de comportamiento Hamilton, que es la que se usa habitualmente para evaluar la depresión. También, cuando detiene este procedimiento observa que los pacientes vuelven a su estado anterior.


Lo notable, sin embargo, es que bajando esos niveles en personas normales NO se produce depresión. Y, también, bajando aún más los niveles en personas que ya sufren depresión (cuestión que, dada la hipótesis habitualmente aceptada, raya en el límite de lo éticamente aceptable), tampoco consigue que la depresión empeore.


Es decir, la famosísima correlación “baja serotonina – depresión”, que ha alcanzado incluso en cierta literatura especializada el carácter de una correlación causal… simplemente no cumple con los requisitos de validación mínimos para establecer tal cosa. Quizás es oportuno revisar esos requisitos en este momento: se pueden encontrar más atrás, en el Apéndice, sección 3, al final de este libro.


Me ha interesado, entre muchas, esta investigación en particular, porque el doctor Pedro Delgado es alguien completamente libre de toda sospecha de simpatías antipsiquiátricas. Al contrario, se trata de un investigador de corriente principal, convencido de que “alguna” combinación de neurotransmisores debe ser la causa efectiva de la depresión. Su punto es que la serotonina por sí sola no es un factor causal ni necesario ni suficiente. Pero con esto lo que logra, para nuestros efectos, es poner de manifiesto, desde la propia institucionalidad médica, dos cuestiones de primerísima importancia. La más obvia es la distancia, abismante y alarmante, entre lo que se logra validar científicamente en este campo y lo que se cree y acepta comúnmente como demostrado, no sólo entre el público general, sino incluso en la mayoría de las cátedras universitarias de psicología y psiquiatría y, peor aún, entre los psiquiatras que habitualmente y con toda confianza recetan fármacos basados en dicho principio.


La otra, que importa más en este apartado, es su reconocimiento de que, si es posible encontrar acciones químicas en el nivel de la sinapsis capaces de dar cuenta de trastornos complejos del comportamiento, es inverosímil que sean halladas a partir del efecto de un solo neurotransmisor, y de que habría que buscarlas, por lo tanto, en la combinación, reconocidamente no lineal, entre dos o incluso muchos de ellos. Entrevistado por Mark Moran, en Psychiatric News, Pedro Delgado, tras reconocer explícitamente que los bajos niveles de serotonina no pueden ser considerados causa de la depresión, reflexiona muy prudentemente, “el problema parece ser muy complejo”.[69]


No se pueden sacar las comillas a la palabra “investigación” cuando hablamos del intento de comprender las eventuales bases neurológicas del comportamiento a través de la contaminación química masiva del sistema nervioso porque su utilitarismo (legítimo en cualquier investigación tecnológica) la ha llevado a carecer de los más mínimos y razonables estándares de la validación científica.[70]


En cuanto a la confiabilidad de los estudios financiados por las industrias farmacéuticas existe un estudio extraordinario, que ha inspirado varias investigaciones en el mismo sentido. El doctor Stephan Heres, y su grupo, en la Clínica Psiquiátrica de la Universidad Técnica de Munich, quizás sorprendidos por los informes contradictorios sobre los antipsicóticos de segunda generación usados para tratar la esquizofrenia, hicieron un meta análisis sobre 42 informes de investigación que mostraban un extraño círculo: según los estudios revisados, en el tratamiento de la esquizofrenia la olanzapina es mejor que la resperidona, la resperidona es mejor que la quetiapina… y la quetiapina es mejor que la olanzapina.[71] Buscando las razones de esta situación encontraron que de las 42 investigaciones 33 habían sido financiadas por grandes compañías farmacéuticas, y que de estas 33 el 90% mostraba como superior a la droga que era fabricada por la compañía que financiaba la investigación.


Una investigación que apunta a esta misma diferencia entre lo que se sabe y lo que se dice que se sabe, es la de E. H. Turner y su grupo, en que muestran que las compañías farmacéuticas informan de manera selectiva los resultados de sus ensayos, logrando con ello aparentar una mayor eficacia para los fármacos que presentan al mercado.[72] Los autores comparan 74 estudios contra placebo presentados a la FDA, que abarcan 12 antidepresivos y 12564 pacientes. Pero muestran que un tercio de ellos, que abarcan a 3449 pacientes no fueron publicados, que de 38 estudios con resultados positivos fueron publicados 37, mientas que de los 36 restantes, que mostraban resultados negativos o efectos secundarios preocupantes, fueron publicados muy pocos, y siempre dando la impresión de que el resultado había sido favorable. Pudieron mostrar que mientras el 94% de las pruebas sobre antidepresivos publicadas en revistas especializadas informaban resultados positivos, sólo el 51% de los informes entregados a la FDA mostraban lo mismo. Entre los trucos que ejemplifican muestran estudios realizados en varios centros médicos en que sólo se publican los resultados del único centro en que fueron favorables, o las diversas manipulaciones estadísticas a que son sometidos los datos primarios para revertir su significación real.


Uno de los estudios quizás más claros en torno al estado de la investigación en psiquiatría es el que llevaron a cabo por Ben Thornley y Clive Adams quienes pudieron examinar 2000 (¡!) ensayos clínicos hechos sólo en torno a la “esquizofrenia” en cincuenta años (1947-fines de 1997). Es lo que alcanzaron a hacer: constataron que en ese tiempo se habían publicado casi 3200 informes, sobre más de 2500 ensayos clínicos, sólo en ese tema.


En esos 2000 ensayos fueron probados 600 tipos de intervenciones diferentes, 437 (73%) de las cuales consistían en la administración de diversos tipos de drogas (sólo 85, el 14%, fueron procedimientos psicoterapéuticos). Al examinar los informes de investigación constataron que en la gran mayoría de los estudios los sujetos experimentales habían sido muy pocos (en promedio 65, en el 50% de los ensayos participaron menos de 50 personas), y habían durado muy poco (el 54% duró menos de seis semanas). Para evaluar los resultados se usaron 640 escalas de medición distintas (¡!), de ellas 369 sólo fueron usadas una vez e, incluso 510 ensayos (25%) no usaron ninguna escala de evaluación. Las presentaciones fueron examinadas de acuerdo a los estándares comúnmente aceptados para un informe científico. En una escala de calidad de informes de 1 a 5, sólo 20 alcanzaron el tope de 5, mientras que 1280 (64%) sólo puntuaron 2 o menos.[73]


UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::00/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::01/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::02/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::03/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::04/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::05/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::06/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::07/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::08/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::09/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::10/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::11/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::12/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::13/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::14/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::15/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::16/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::17/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::18/es UNA2::III. El modelo médico en neurología::c. ¿Por qué es tan difícil investigar la actividad mental en el sistema nervioso?::19/es

IV. La proyección del modelo médico sobre la psiquiatría

a. Médicos antiguos y médicos modernos

La medicina científica es sólo una de las tradiciones médicas en la historia humana y es, muy largamente la más exitosa. Como tarea de investigación sistemática, con su metódica combinación de racionalismo y empirismo, es tan antigua como la ciencia misma. Sus proyecciones técnicas son perfectamente paralelas, y tan antiguas, como las de la ingeniería.


Durante más de dos mil quinientos años la medicina científica coexistió con los otros múltiples saberes médicos en una pragmática división de clases. A ella tenían acceso los gobernantes y poderosos, mientras que los artesanos pobres y los campesinos seguían empleando saberes y usos heredados desde la revolución neolítica. Esta coexistencia pacífica resultó con el tiempo extraordinariamente provechosa. La medicina racionalista absorbió y sometió a observación y prueba sistemática todos aquellos saberes comunes heredados.


Uso la expresión “racionalista” para distinguir la medicina propiamente científica, es decir, la que está inserta en una cosmovisión propia de la ciencia, de sus precursoras, que se desarrollaron en el mundo del mito y de la fe. “Racionalista” indica, en este caso, que en el saber médico no se apelaba ya a explicaciones trascendentes, o a intervenciones divinas, sino que se tenía plena conciencia del carácter natural de los problemas médicos. El uso del método experimental, sin embargo, propio de la ciencia moderna, sólo data, en medicina, de mediados del siglo XIX.


Como la modernidad ha escrito la historia de manera eurocéntrica y extemporánea, es decir, como si toda la cultura humana se hubiese desarrollado sólo para culminar en ella, se suele fijar el primer gran sistema médico racionalista en el Corpus Hippocraticum, atribuido al griego Hipócrates de Cos, que vivió entre 460 y 370 A.C. Muchos historiadores concuerdan en que la mayor parte de su contenido probablemente procede de fuentes muy anteriores, egipcias, caldeas y persas.[74]


La parte central y más relevante del Corpus Hippocraticum fue la teoría de los humores corporales, que se mantuvo como fundamento del saber médico hasta mediados del siglo XIX, sobre todo en el campo de la psiquiatría. Una continua, y en algún sentido maravillosa, tradición mantuvo estos saberes venerables. Fueron desarrollados en la época de oro del helenístico por médicos como Herófilo de Calcedonia (335-280 A.C.), y Erasítrato de Ceos (304-250 A.C.) que trabajaron en la famosa Biblioteca de Alejandría, y de quienes se dice que exploraron quirúrgicamente los órganos internos del cuerpo con seres humanos vivos. Fueron aumentados a través del contacto que el Imperio Romano tuvo con otras culturas por Rufo de Éfeso (s. I D.C.), Sorano de Éfeso (s. II D.C.) y Areteo de Capadocia (120-200), cuyos escritos y debates se conservan a través de los romanos Celso (s. II D.C.) y Galeno (130-200), que hicieron la nueva suma del saber médico, sobre la base de la hipocrática, perfeccionada durante quinientos años.


Oribasio de Pérgamo (320-400) y Pablo de Egina (625-690) salvaron esa gran acumulación de saber del naufragio de la antigüedad y sirvieron de puente para que los médicos árabes a su vez lo ampliaran y trasmitieran. Entre los muchos médicos árabes importantes es necesario consignar al notable Abu Bakr Muhammad ibn Zakariya al-Razi (865-925) que no sólo inventó el alambique, destiló el etanol y la parafina y descubrió el ácido sulfúrico, sino que mantuvo una sección para enfermos mentales en el hospital de Bagdad, escribió sobre la melancolía como un mal del alma, y propuso terapias a través del trabajo y la conversación racional. Junto a él es imposible no nombrar, al menos a Abu Zayd Ahmed ibn Sahl Balkhi (850-934), que introdujo la idea de “higiene mental”, Abu Ali al-Husayn ibn Abd Allah ibn Sina, (980-1037), llamado Avicena, que entre muchísimas otras cosas introdujo la idea de asociación de palabras para explorar problemas mentales y Muhammad ibn Abd Allah ibn Said ibn Ali ibn Ahmad al-Salmani, (1313-1374), llamado Lisan al-Din ibn al-Jatib, que escribió un tratado sobre la peste negra, sin los cuales la medicina europea habría seguido debatiéndose por siglos con las fórmulas neolíticas que sobrevivieron a la caída del Imperio de Occidente.


La medicina europea deriva completamente de la árabe, a través de Constantino el Africano (1020-1087) y la época clásica de la Escuela de Salerno (850-1300), donde se tradujo directamente del árabe, reproduciendo un enorme corpus en latín, que va a ser el modelo de todas las escuelas médicas hasta el siglo XVII, es decir, durante más de cuatrocientos años. Cuando Timothy Bright (1550-1615), Thomas Wallis (1621-1675), Renato Descartes (1596-1650) y Robert Burton (1577-1640) ponen las bases de lo que será la medicina moderna, lo hacen completamente sobre el fundamento de la medicina árabe, que reproducen y amplían muy lentamente, sin que sus descubrimientos logren sobrepasarla sino hasta muy avanzado el siglo XVIII.


En el siglo XVII (Galileo, Descartes, Bacon, Newton, Hobbes) la modernidad, que ya tiene una historia de más de quinientos años, se hace consciente de sí. Las guerras de religión son el gran y traumático suceso a través del cual el pueblo europeo terminará imponiendo sobre sí mismo su vocación racionalista. Si seguimos la extraordinaria ironía de don Francisco Goya, “el sueño de la razón produce monstruos”, se podría decir que es una de las épocas más soñadoras de la historia. En unas pocas décadas decenas de miles de mujeres fueron quemadas bajo la acusación de brujería. Más que en los cinco siglos anteriores.[75] Pero esta vez, esta verdadera cruzada contra la brujería, extendida y dispersa, en que frecuentemente se condensaron los horrores de la hambruna y la peste tuvo, junto a su discurso religioso, un componente racional: la lucha del gremio médico por alcanzar el monopolio del saber médico a nivel social.


La lucha contra la “brujería” marca el inicio de la completa hegemonía social de la medicina científica en la modernidad.[76] La ya dos veces milenaria coexistencia pacífica se rompió, y el oficio médico formado en las universidades se convirtió en el único posible. Parteras, curanderas, incluso santones de ideología religiosa que pretendían poderes curativos, fueron a parar a la hoguera. El oficio médico, que concentraba ahora la pretensión de saber, apoyado jurídicamente, se convirtió en exclusivo y excluyente.


Paralelamente, hubo un proceso de democratización, en el sentido lato de ampliación del acceso y de la intervención médica, como nunca había existido antes, con excepción, por supuesto, de los hospitales públicos en el mundo árabe clásico, tan fácilmente olvidables por la historia oficial. Apareció la institución hospitalaria pública moderna y, junto a ella, la confusión entre hospicio para pobres y hospital para enfermos y locos, que sólo terminaría en la época napoleónica.


En cuanto al contenido, quizás el cambio más profundo, y de más largo alcance, sea la sistemática reelaboración de la teoría de los humores en términos de la dualidad cartesiana alma – cuerpo, que tiene, por supuesto, un impacto directo en el discurso y la práctica psiquiátrica. Este es el modelo que imperó casi sin contrapeso hasta la época en que fue desafiado y desbancado de manera revolucionaria por médicos como Pasteur, Barnard y Koch, desde 1860 en adelante.


Para hacerse una idea de lo reciente que es esta revolución del saber médico, pensemos cómo sería el panorama de la física si el modelo geocéntrico de Tolomeo, perfectamente contemporáneo de la constitución del Corpus Hippocraticum en Celso y Galeno, hubiese estado vigente hasta 1860, y que sólo desde entonces hubiésemos empezado a ser contemporáneos de Kepler, Galileo y Newton…


b. La teoría de los humores y su proyección sobre la psiquiatría

En la medicina general sólo la bacteriología fue el inicio de la real superación de la teoría de los humores. En psiquiatría ese papel lo cumple la exploración de la actividad eléctrica del cerebro, descubierta recién en 1848, y la teoría de la neurona individual, propuesta en 1888. Todavía Iván Pavlov (1849-1936), a principios del siglo XX, creía necesario compatibilizar la teoría de los temperamentos humorales con sus descubrimientos en torno a la actividad eléctrica del sistema nervioso.


Los humores eran sustancias perfectamente reales y observables que recorrían el cuerpo humano. La sangre, que se creía producida por el corazón, la flema, que se pensaba era producida tanto por los pulmones como por el cerebro, la bilis negra, procedente del bazo, y la bilis amarilla, producida por el hígado y la vesícula. Estos humores estaban a su vez asociados con los cuatro elementos que, desde los griegos hasta Lavoisier, se creían los componentes básicos de la materia: tierra (bilis negra), fuego (bilis amarilla), agua (flema) y aire (sangre). Hay que agregar a esto las diferencias seco – húmedo y frío – templado – caliente, todo lo cual daba origen a un sistema que hoy se llamaría “multifactorial”.


Todo un universo de síntomas podía ser asociado con las diversas combinaciones de elementos, humores y estados. Los cambios de estado, la abundancia o escasez de los humores, y sus combinaciones con la presencia relativa de los elementos, podían ser invocados como mecanismos causales de las más diversas dolencias, y se seguían de ellos medidas terapéuticas específicas, que una tradición de muchos siglos había mostrado como las más eficaces en cada caso.


La sangría, el calentar los pies o la cabeza, los purgantes que permitían expulsar excesos de una u otra bilis, las curas de agua, o de calor, son consecuencias técnicas perfectamente racionales de todo el sistema. El sudor, el vómito, la tos, la orina, las heces, eran interpretadas como expulsión de humores excedentes, proceso al que Hipócrates llamó “crisis”, y servían de poderosos índices diagnósticos para decretar medidas que pudieran restaurar el equilibrio humoral, que era llamado “crasis”.


En principio no había en esas prácticas médicas nada de arbitrario. Se trataba de un saber altamente específico, que había que aprender en la universidad, respaldado por muchos siglos de experiencia. Se trataba de un sistema dotado de una gran coherencia interna, y no poco apoyo empírico. Juzgar esos procedimientos a la luz de los estándares actuales es cometer la falacia historiográfica de juicio extemporáneo. No tiene mucho sentido, después de todo, y sólo como un ejemplo, preguntarse si San Agustín de Hipona era democratacristiano. Con esa pregunta se lo asocia a problemáticas y teorías que le habrían resultado completamente extrañas.


En los saberes operativos, como la ingeniería, el cultivo agrícola y la medicina, la comparación fatal e inevitable, sin embargo, es la eficacia. Comparada con la medicina actual era bajísima, y en un examen detallado de muchos casos probablemente encontraríamos que no lograba superar los índices del simple azar, es decir, sus éxitos eventuales se debían más bien a la curación espontánea a partir de un cambio en la capacidad de defensa orgánica propio del paciente, que a las medidas positivas encaminadas a lograrlo. Mirados desde hoy, esos éxitos pudieron deberse más bien a medidas simples de higiene, o a la recomendación de dietas ocasionalmente más equilibradas, sin que hubiese ninguna relación definida entre esas medidas y lo que la teoría en general establecía. El éxito declarado de un procedimiento aparecía en esos casos, en realidad, por un error sistemático. En la superposición de dos medidas, por ejemplo una sangría y una mejor dieta, la curación provenía justamente de aquella que según ese sistema médico era incidental, y no de la que su teoría central recomendaba.


Esta posibilidad es, como veremos, extraordinariamente importante cuando se piensa en la situación de la psiquiatría farmacológica actual, pero resulta, si se puede, aún más relevante cuando se observa su reverso. En ocasiones la causa efectiva de un mal (como la viruela), que este sistema médico no podía reconocer, arreciaba en forma masiva (en una plaga) precisamente en contextos en que las eventuales medidas benéficas (las dietas, la higiene) no se estaban aplicando debido al hacinamiento, o a la hambruna. La plaga resultaba devastadora. El punto aquí, sin embargo, es que en ese contexto las medidas típicas recomendadas (sangría, purgantes, baños helados) contribuían a agravar sustancialmente las condiciones de desarrollo de la enfermedad, y conducían a los pacientes más rápidamente a la tumba que la propia plaga. En múltiples episodios de la historia médica europea entre los siglos XIII y XIX era mucho más peligroso internarse en un hospital, o ser asistido por un médico, que simplemente quedarse en casa, en reposo.


Todavía a principios del siglo XIX el doctor Samuel Hahnemann (1755-1843), padre de la homeopatía, podía salvar a muchas personas del tifus, la escarlatina o el cólera, por la simple recomendación de que se quedaran en sus casas, que las ventilaran, que durmieran mucho y, por supuesto, administrándoles sus famosas píldoras. Hoy es relativamente claro que no curó a nadie con eso, aunque él y mucha gente quedaron firmemente convencidos de que lo había hecho. Pero la simple diferencia entre el número de personas que murieron en los lugares donde se seguían sus tratamientos y los muchos que murieron en otras ciudades, atendidos por médicos tradicionales, apareció ante todo como una poderosa evidencia de “curación”.


Hoy sabemos, y ningún homeópata lo niega, que sus pastillas de homeopatía, que había desarrollado a partir de experimentos en su propio cuerpo, están fabricadas a partir de un grado de disolución de las sustancias activas tal que prácticamente no contenían nada del principio activo del que se suponía eran portadoras. Sin embargo, por las condiciones que he expuesto, la “curación” estaba allí, y podía ser experimentada por todos. En términos epidemiológicos no es un enigma muy difícil: no se trataba sino de un sustantivo aumento de la probabilidad de sobrevivir, en comparación con las condiciones imperantes bajo otros tratamientos. Un aumento debido a medidas anexas al principio activo que se suponía estaba actuando.[77]


Hoy podemos especular sobre el efecto placebo que estaba operando de manera objetiva sobre esas píldoras. Una fuerte expectativa de curación, el ánimo de recurrir a cualquier medio, aunque parezca exótico, para sortear las consecuencias de la plaga, las medidas de higiene y nutrición anexas… y el éxito relativo aparece como milagroso. El remedio ha contribuido a un efecto curativo que no se debe al principio activo que contiene o proclama, es un placebo. Pero al mismo tiempo es inocuo, no tiene por sí mismo ningún efecto colateral dañino: es el mejor placebo posible. La homeopatía fue, en ese contexto, no sólo una teoría racional, derivada a través de medios y supuestos en principio científicos, sino también una alternativa razonable: ayuda sin efectos negativos.


De la teoría de la teoría de los humores se seguía de manera natural toda una teoría sobre los estados subjetivos de los seres humanos. Como todos los sistemas médicos, consideró que las bases de los detalles específicos de cada cuadro de personalidad estaban en el cuerpo y, como casi todos, consideró que las alteraciones más graves del comportamiento debían ser consideradas como enfermedades.


Como la medicina científica, animada del triunfalismo ilustrado de la “era del progreso”, ha estigmatizado hoy a todo otro sistema médico como mera superstición o creencias mágicas, incluso a las propias teorías, perfectamente científicas, que antecedieron al modelo de la bacteriología, es necesario aclarar que desde hace ya más de dos mil años las prácticas médicas racionales pueden distinguir, al menos en principio, entre los estados de comportamiento a los que se les puede atribuir una influencia mágica de otros, que sólo tendrían un origen orgánico.


Por cierto la discusión entre sacerdotes y médicos al respecto fue siempre muy activa, cada uno disputando su competencia en torno a los caminos a seguir en situaciones concretas. Y concedamos también que en cada controversia aguda el bando sacerdotal jugaba con cartas marcadas, y tenía las mayores probabilidades de ganar. Pero, al menos en principio, ambas partes reconocían que existían las dos posibilidades, y que cada caso debía ser evaluado en su propio mérito. Sólo en las épocas de locura religiosa, y hubo muchas, los locos fueron perseguidos como endemoniados. Pero también en esas épocas, que son las que siempre invoca la propaganda científica, fueron perseguidos bajo la misma acusación parteras, judíos, homosexuales, gitanos y todo aquel que se apartara de la “normalidad” de los hombres blancos, cristianos y europeos.


La asociación entre locura y presencia diabólica nunca fue necesaria, ni suficiente, para la persecución religiosa. La mayor parte de las veces ni siquiera las razones religiosas fueron necesarias. Como declara el inquisidor Francisco Peña (1578), comentando su edición del Manual para Inquisidores de Nicolau Eimeric (1376), con una sinceridad simple y monstruosa: “La finalidad de los procesos y de las condenas a muerte no es salvar el alma del acusado sino mantener el bienestar público y aterrorizar al pueblo”…[78]


Lo importante de este asunto es que la teoría de la personalidad que derivaba de la medicina de los humores era perfectamente racional, estaba amparada por una amplia base empírica, y se seguía de manera razonable de un cuerpo teórico bastante consistente. De manera correspondiente, sus nociones sobre la locura compartían cada una de estas características.


Se trataba de una teoría de los temperamentos. Hay que notar que todavía en el siglo XX, y hasta hoy, hay defensores de teorías de este tipo, muy respetados en el gremio psiquiátrico. El más importante es Ernst Kretschmer (1888-1964) y su tipología, basada en la idea de temperamento, estrechamente relacionada con las teorías clásicas, en que se proponen asociaciones definidas entre rasgos de personalidad y formas corporales.


Exactamente de la misma manera, la medicina de los siglos XIII a XIX, postulaba una estrecha asociación entre la preponderancia de algunos humores sobre otros y los rasgos de personalidad. La abundancia relativa de bilis negra (en griego: melán jolé) producía la personalidad melancólica; la bilis amarilla las personalidades coléricas, la flema a los individuos… flemáticos, la sangre a los… sanguíneos. Si se considera la combinatoria de estos fluidos con los principios frío – cálido y húmedo – seco, y con los cuatro elementos, surgía una amplia caracterología, que podía contener toda clase de cuadros sintomáticos, incluso los extremos que podían considerarse como “locura”.


Es interesante constatar que desde la antigüedad uno de los cuadros más explorados haya sido el de la melancolía. Rufo de Éfeso (s. I), Galeno (s. II), Al Razi (s. IX), Ibn Imram (s. X), Robert Burton (1621), Richard Blackmore (1725), Robert Whytt (1764), entre muchos otros, escribieron sobre ella. Y es interesante notar que en todos esos tratados se consideraron tanto causas biológicas como causas sociales, con recomendaciones terapéuticas distintas para cada una. Es notable también que, desde siempre, se hiciera un esfuerzo para distinguirla como un mal específico, separándola de cuadros que podían deberse simplemente a la desnutrición, al abatimiento originado en problemas objetivos, o a la mera tristeza. El escalamiento diagnóstico desde la tristeza hasta la “enfermedad” no aparece en ninguno de ellos, como suele ocurrir hoy en día.


Como ya se podrá sospechar, me he detenido largamente en la teoría de los humores y los temperamentos por la amplia analogía que se puede hacer con los usos y la supuesta base teórica de los métodos farmacológicos de la psiquiatría actual. Se tenía una enorme y detallada teoría médica, de la que se seguía una detallada teoría de los temperamentos. Sobre esta base se podía tratar a las alteraciones más graves del comportamiento como enfermedades y, aplicando terapias médicas, se aspiraba a contenerlas, o incluso a revertirlas. Considerados a la luz del saber médico aceptado en su época administrar purgantes a los locos, bañarlos en agua helada, practicarles sangrías, eran medidas terapéuticas perfectamente racionales.


Establecer esto es importante porque a lo largo de su historia moderna la psiquiatría ha practicado sistemáticamente la operación de estigmatizar su pasado y a la vez sobrevalorar su presente. “Antes eran brutales, ahora procedemos humanamente”, “antes eran sólo supersticiones, ahora sí que se trata de ideas científicas”. Este contraste no sólo produce una falsa impresión de superioridad, sino que impide valorar en su justa medida la responsabilidad de la ciencia como trasfondo, y de los científicos concretos, en lo que ahora se nos presenta como un abuso que se debería a una sistemática mala fe, a la ignorancia o a la crueldad o, también, sólo a excesos ocasionales.


Considerados de manera epistemológica ocurre con los supuestos “abusos” practicados por la psiquiatría de los siglos XVII y XVIII tienen su origen claramente en la ausencia de un modelo médico de enfermedad de carácter explicativo, como el que impuso la bacteriología. Sus teorías de la locura surgían de la correlación simple y exterior entre una teoría orgánica racional pero, en términos comparativos, extremadamente débil, y una taxonomía meramente sintomática de los rasgos de personalidad. Ni las eventuales causas de la locura se conocían de manera directa e independiente, ni tampoco el eventual mecanismo de su desarrollo, ni a nivel orgánico, ni en el plano mental. El único dato cierto era la descripción de los síntomas, y aún ésta estaba sometida a toda clase de variaciones e incertidumbres.


No es raro, en ese contexto, que se pudiera confundir fácilmente un cuadro de desnutrición con uno de melancolía, o que se creyera, razonando desde el síntoma, que con sangrar a alguien hasta el límite de la anemia se había logrado contener el mecanismo que producía la euforia. No es raro tampoco que no se consiguiera ni una sola curación efectiva, claramente atribuible a tales métodos, o que toda mejoría aparente se redujera a los síntomas más extremos. Como en la mayor parte de sus procedimientos, ante el dramático desconocimiento de las causas, la medicina de los humores en el plano psiquiátrico sólo podía limitarse a medidas terapéuticas paliativas. Y los límites de los paliativos administrados, como ya he hecho notar en el Capítulo II, dependían fuertemente de las prioridades concedidas al dolor individual, o lisa y llanamente al orden social.


Se podría decir que esta psiquiatría basada en los humores operó con los estándares más bajos posibles del método científico, obligada a ello por la insuficiencia del saber biológico desarrollado hasta entonces. Hoy el saber sobre el cuerpo en general ha avanzado enormemente, y tenemos derecho a exigir estándares de validación científica más elevados.


Pero también, por otro lado, se podría decir que obligada al nivel de remediales meramente paliativos, la psiquiatría de entonces es responsable de la soberbia de presentar sus procedimientos como curativos, y de que esa soberbia fuese puesta tan fácilmente, justamente por su pretensión de saber, al servicio del orden social. Claramente, y de manera brutal, los pobres fueron sus principales víctimas. La acción sobre ellos de la vanidad científica nunca requirió de demasiadas explicaciones. En buenas cuentas el resultado real, como han mostrado muchos historiadores, podría resumirse así: “no se encierra a un loco para curar su alma, sino para aterrorizar al pueblo”.


Ni esa psiquiatría fue tan irracional, ni la actual psiquiatría farmacológica es tan científica, como veremos luego. Lo que sí tienen en común es su ignorancia sobre las eventuales causas de la locura, y la soberbia reversa de proclamar que no la sufren, tienen en común su obligada reducción al orden de las terapias paliativas, y también su sistemática opción por ejercer el paliativo a favor del orden social, aun a costa de prolongar y enmascarar el sufrimiento individual.


c. Terapias médicas y terapias sociales clásicas

Como he señalado antes, casi desde siempre la interpretación biológica del origen de los trastornos mentales, y su asimilación a la lógica médica, ha tenido alternativas, y ha sido motivo de discusión. Se podría decir que la sistemática ineficacia de los métodos empleados, o la dificultad para subir los estándares de rigor científico en este campo, abren las puertas para su consideración en términos de razonabilidad común. Si interpretamos la antipsiquiatría como la resistencia al interior del propio gremio ante la lógica médica y sus efectos, se podría decir que siempre ha existido una corriente antipsiquiátrica, minoritaria, pero persistente.


Se podría creer que estos momentos surgen como reacción al hacinamiento, a la brutalidad de los métodos, al pobre pronóstico sobre mejorías posibles, al claro empeoramiento de la situación de los pacientes, que se dio históricamente en los asilos clásicos. Y hay, efectivamente, una cierta correlación al respecto. En todas las épocas ha habido personas de espíritu humanitario que espontáneamente han reaccionado con horror, y han buscado métodos alternativos.


Sostengo, sin embargo, que aun siendo esto cierto, considerarlo de esa manera enmascara cuestiones más de fondo y sobradamente más relevantes. En primer lugar, como he indicado ya, formula la situación como una confrontación entre una buena y una mala voluntad, omitiendo la racionalidad propia de cada bando, que excede sus intenciones humanitarias o sus crueldades hipotéticas. En segundo lugar porque se presenta la contienda como una confrontación entre saber e ignorancia, desconociendo que se trata más bien de un enfrentamiento entre dos saberes, cada uno con una percepción distinta de lo que es plausible en términos teóricos, y de lo que es alcanzable en términos prácticos. Pero, además de sus componentes científicos, la discusión ha pasado siempre por un componente político: cómo equilibrar las necesidades de mejoría del paciente con la necesidad de contener la evidente alteración que sus conductas producen en el orden público.


En suma, cuando se presenta a las iniciativas más humanitarias en la historia de la psiquiatría como muestras de bondad, se tiende a oscurecer que obedecen a cálculos perfectamente racionales, también amparados en un importante apoyo empírico. De manera inversa, cuando se presentan las prácticas que parecen brutales y abusivas, se encubre el hecho de que son expresión de teorías científicas, que en su momento fueron consideradas como aceptables.


Es importante notar, además, que la disputa ha conocido varias veces un tercer término: el de las teorías que aceptan la lógica médica y sin embargo desconfían de su consecuencia farmacológica. El “tratamiento moral”, propuesto a fines del siglo XVIII por médicos franceses e ingleses, y el uso psiquiátrico del psicoanálisis, son los dos casos más relevantes. Comparten con la orientación médica la fuerte asimetría del saber entre terapeuta y paciente, la invocación de causas internas por sobre los factores contextuales, la aceptación de taxonomías y técnicas establecidas a priori. Pero difieren en la opción por obviar posibles causas orgánicas, y postular en cambio teorías sobre la actividad subjetiva como tal, derivando de ellas, y en ese plano, las fuentes de la alteración. La consecuencia es que se proponen procedimientos basados en el tratamiento directo de la subjetividad, en relaciones interpersonales asimétricas, uno a uno (terapeuta – paciente) que, por su ánimo “curativo”, pueden ser llamadas “clínicas”, tal como se supone de la intervención de un médico.


Un caso extraordinariamente interesante, y muy representativo de esta lógica, es el de la locura del rey Jorge III de Inglaterra (1738-1820). Pasado los cincuenta años, entre 1788 y 1789, y tras la pérdida de dos de sus hijos (y la independencia de los Estados Unidos), el rey Jorge sufrió de graves alteraciones mentales durante un período de varios meses. Fue tratado, entre otros, por el doctor Francis Willis (1718-1807), quien combinó las purgas, sangrías y baños helados típicos de la medicina de los humores con las nuevas fórmulas “modificación conductual”, análogas a las que más tarde Philippe Pinel (1745-1826) llamaría “tratamiento moral”. Cuando el rey volvió a tener episodios de locura, en 1801 y 1804… se negó terminantemente a llamarlo de nuevo. Por fin en 1810, a los setenta y dos años, y tras la muerte de su hija menor, volvió a enfermar y ya no se recuperó. Su hijo mayor asumió como regente, y se mantuvo internado hasta su muerte, en 1820, con casi ochenta años de edad. El caso ha sido descrito de manera brillante en la obra de teatro The madness of George III (1992), del dramaturgo inglés Alan Bennett, llevada al cine en 1995, bajo la dirección de Nicholas Hytner.


Lo que hace particularmente interesante la situación es la confrontación entre el poder muy real y terrenal del propio rey de Inglaterra y el poder del médico, autorizado socialmente por el aura de la pretensión de saber. El rey se repuso, sorpresivamente, en abril de 1789, lo que trajo a Willis una gran fama y cuantiosas recompensas. Sin embargo hoy se sabe que ninguno de sus tratamientos, muchas veces violentos y humillantes, tuvieron nada que ver con su recuperación. Su mal ha sido considerado por expertos posteriores como efectos de una variedad de porfiria, una enfermedad a la sangre que se trasmite genéticamente, y que ha sido detectada hasta en miembros actuales de la familia real. Se sabe que simples cambios de dieta pueden aliviar sustancialmente sus síntomas. Y se sabe también que muy probablemente el arsénico que contenían los purgantes que se le administraron contribuyó a agravar su enfermedad, hasta el punto de llevarlo a la incapacidad a partir de 1810.


El médico, por supuesto, resultó no sólo impune sino incluso famoso, completamente a contrapelo de su ignorancia sobre el mal que estaba tratando, y de que su apariencia de éxito se debió, en buenas cuentas, a que afortunadamente el rey, en alguno de sus escasos momentos de lucidez, decidió simplemente no seguir sus recomendaciones e irse a descansar, y a alimentarse mejor tras la prolongada y violenta administración de purgantes que recibió. De hecho las crisis de 1801 y 1804 las sorteó siguiendo esa fórmula, completamente de sentido común, sin asistencia médica. Pero su ancianidad, su historial de “locura” y las ambiciones de su heredero, terminaron por perderlo. Desde la crisis de 1810, visiblemente precipitada por la muerte de su hija preferida, fue obligado a seguir los tratamientos médicos del caso, al estilo de los del doctor Willis. Y se consiguió perfectamente, en el fondo, lo que se pretendía: a los pocos meses el estado de inhabilidad del rey era tal que fue sustituido en el trono por el heredero, que había esperado por largos años tal ocasión.


El destino de Dora, Ida Bauer (1882-1945), analizada por Sigmund Freud en 1900, cuando tenía 18 años, quien publicó su caso sin su consentimiento, apenas camuflado por el famoso pseudónimo que no confundió a nadie, o el de Emma Eckstein (1865-1924), en 1895, en que junto a Freud participó su inefable amigo Wilhelm Fliess, son aún relativamente benignos, a pesar de sus caracteres de escándalo.[79] Miles de locos pobres en los asilos de Francia e Inglaterra durante el siglo XIX no tuvieron la misma suerte de estas señoritas de capas medias acomodadas, o del propio rey de Inglaterra.



Consideradas frente a los procedimientos psiquiátricos de tipo social, estas terapias de modelo médico que apelan al trato directo de la subjetividad individual son fácilmente agrupables con las de orientación farmacológica. En primer lugar porque comparten muchos de sus fundamentos, sobre todo en el campo de la caracterización de la enfermedad y la lógica del saber. Pero también porque a la larga resultan plenamente compatibles y complementarias. También Philippe Pinel apeló a la humillación, e incluso al uso de azotes y baldes de agua fría para apurar los efectos de sus intervenciones “morales”, tal como el doctor Willis usó purgantes con antimonio y arsénico para tratar al rey Jorge.[80] Como también es hoy una práctica habitual de los psicoanalistas recetar fármacos para “contener” a sus pacientes, mientras operan sus métodos intersubjetivos, que son visiblemente más lentos.


Llamo “terapias de tipo social”, en cambio, a aquellas que tienden a horizontalizar la relación entre el terapeuta y el paciente, y a poner a éste en relación con otros afectados por condiciones semejantes para producir un efecto terapéutico relacional, grupal. Hacer esta clase de cosas es tan antiguo como la psiquiatría misma. Ya Al Razi (s. IX), en su sección dedicada a enfermos mentales en el Hospital de Bagdad, hacia el año 900, recomendaba la “conversación con personas racionales” y la terapia a través del trabajo para variadas formas de locura. Mil años antes que Adolf Meyer (1866-1950), a quien se suele atribuir esta idea, Al Razi postuló la asociación entre cuadros de eventual locura y hábitos de vida no aconsejables, que podían ser superados a través de las rutinas del trabajo.


Autores como Maimónides (Moshé ben Maimón, 1135-1204), siguieron esta tradición, que se encarnó en los hospitales de Fez, Metz y El Cairo y, en lo que hoy es España, en el hospital Maristán, en Granada, desde 1366. Es a través de los árabes del Al-Ándalus que la idea de una institución de acogida para locos pasa a la Europa moderna, en primer lugar a Valencia, donde en 1409 se funda el Hospital de Santa María de los Santos Mártires Inocentes, por la orden de los Hermanos de la Merced, un lugar donde las recomendaciones árabes de conversación y trabajo se mezclaron con el disciplinamiento “espiritual” de tipo cristiano. Trescientos años antes que Pinel,


“A los pacientes, en este hospital (de Valencia), se les retiran sus inseparables cadenas y se crea el primer departamento para aislar los niños de los adultos. Las internas eran las encargadas de hilar y tejer la tela que se usaba para confeccionar las ropas de los locos y las sábanas, así como de lavarlas y almidonarlas. Los pacientes en mejor estado estaban en un régimen abierto, salían por la ciudad a buscar frutas y verduras, y en ocasiones participaban en ciertas festividades de la ciudad, como cabalgatas y desfiles; entre sus tareas también se contemplaba acompañar y ayudar al carretero del hospital para conseguir trigo, leña, limosna y carbón.”[81]


Como consecuencia de los éxitos obtenidos en Valencia, a lo largo de los siglos XVI, XVII y XVIII, se crearon en España al menos una docena de instituciones del mismo tipo, con métodos semejantes, cuestión que contrasta de manera notoria con la situación de los asilos y cárceles para locos instaladas en Francia, Inglaterra y el resto de Europa. Sin embargo, dos curiosas contrariedades se producen desde fines del siglo XVIII en los hospitales españoles: por un lado Philippe Pinel cita explícitamente las prácticas del Hospital General de Zaragoza en su principal libro, como una inspiración de sus ideas; por otra parte el humanismo relativo del régimen hospitalario va decayendo progresivamente… debido a las influencias de la psiquiatría francesa e inglesa.


En Estados Unidos, es necesario recordar la labor de Adolf Meyer (1866-1950) y William Rush Dunton (1868-1966), ambos psiquiatras toda su vida y, sin embargo, relegados al desván del olvido por la marea farmacológica y, como explicaré más adelante, por los intereses gremiales que triunfaron a partir del DSM-III.


Adolf Meyer fue profesor de psiquiatría en la Universidad de Cornell (1904-1909) y luego en la Universidad John Hopkins (1910-1941), y director de la Clínica Psiquiátrica Henry Phipps (1913-1940). A pesar de esto, es conocido hoy como uno de los fundadores de la “terapia ocupacional” (al igual que Rush). Su teoría, casi siempre sin su nombre, es invocada aún por la idea de que entender los trastornos psíquicos requería un enfoque “bio-psico-social”. Para él mismo todo el énfasis recaía en el tercer factor, “social”, desde el cual, pensaba, había que tratar de entender los otros dos.


La profunda influencia de los muchos escritos de Meyer sobre la psiquiatría en Estados Unidos alcanzó su máxima amplitud en los años 20 y 30, una época en que fue enriquecida por los aportes de la sociología y la antropología social. Sus críticas a la orientación “biológica” del psicoanálisis generaron, bajo su inspiración, toda una variante “culturalista” en psicólogos, como Karen Horney y Erich Fromm, y psiquiatras como Harry Stack Sullivan.


Sus métodos se caracterizaron por el énfasis en la reinserción del paciente psiquiátrico (más que su internación prolongada) a través de comunidades de trabajo, por la recomendación de considerar tanto en el diagnóstico como en la terapia una detallada consideración del entorno familiar y social del paciente, por sus ideas en torno a la necesidad de un trabajo interdisciplinario entre enfermeras, terapéuticas ocupacionales, trabajadores sociales y antropólogos sociales, en la perspectiva de una atención integral, más allá de la institución hospitalaria.


Meyer fue, también, el inspirador directo del “Movimiento de Higiene Mental”, fundado en 1909 por Clifford Whittingham Beers (1876-1946). Beers, a su vez, es el primer reformador que puede llamarse claramente “antipsiquiátrico” en Estados Unidos. Había sido paciente en un hospital psiquiátrico, típicamente a partir de un diagnóstico erróneo, y no sólo logró escapar a las penurias de la internación, y a la estigmatización consiguiente, sino que fundó él mismo, en 1913, el primer centro de internación psiquiátrica con métodos humanistas, basados en teorías sociales sobre la locura. Dirigió por treinta años (1909-1939) el National Committee for Mental Hygiene, desde el que organizó a exusuarios, víctimas de la hospitalización psiquiátrica (dos de sus hermanos murieron en asilos para enfermos mentales), y promovió numerosas medidas legales en defensa de sus derechos. En 1908 publicó A mind that found itself, un vibrante relato de su propia internación (1900-1903) y posterior liberación que aún conserva toda la fuerza polémica que pudo mostrar a través de sus nueve ediciones hasta 1921, y puede ser leído casi como un relato sobre las condiciones actuales del encierro psiquiátrico.[82]


El movimiento fundado por Beers decayó profundamente en los años 40 y 50, pero puede ser considerado como precursor directo de las comunidades terapéuticas de los años 60 y, mucho más adelante, de los actuales movimientos de exusuarios psiquiátricos.


También el aporte de William Rush Dunton fue notable. Sus métodos también consideraron que el asunto central de la terapia era la rehabilitación y la reinserción social, a partir de los propios intereses y contextos de vida del paciente. Desde 1919 estableció lo que llamó “terapia reconstructiva”, en el sentido de reconstruir el tejido social que haría posible la contención y superación de los trastornos desde los mismos pacientes. Puso particular atención a la necesidad de la recreación, de la mantención de contactos intersubjetivos acogedores, también en equipos interdisciplinarios en que el psiquiatra es más bien un coordinador que un conductor jerárquico.


Dunton llamó a reconocer las capacidades propias de los pacientes, su inteligencia, su laboriosidad, sus destrezas, su ánimo de superación, y a desarrollar actividades para activarlas y ponerlas al servicio de la terapia, alejándose así diametralmente de la tendencia meramente clasificatoria y abiertamente discriminatoria de prácticamente toda la profesión en su época, y característica de la mayor parte de la historia de la psiquiatría. Justamente por esta valoración de las capacidades intelectuales y emotivas de sus pacientes, predicó una inserción laboral significativa, digna, que formara parte de un camino de reinserción, y que no fuese una ocupación meramente incidental, distractora, que se ejerce como modo de control, como predicaban otros reformadores de orientación filantrópica.


Enseñó a explorar el entorno familiar y social del paciente para valorar en él lo que pudiera identificarlo e invitarlo a la integración. Y también enseñó, tanto a pacientes como a sus ayudantes, a formar identidad desde una posición crítica hacia aquellos factores de discriminación y rechazo, en ese mismo ambiente, que habían terminado por alienar al paciente. Esta actitud “militante”, como la de Beers y Meyer, que va más allá de la postura típica, pretendidamente aséptica, del médico, es uno de los legados más profundos que se le reconoce hasta hoy.


La comparación histórica de estos procedimientos con los practicados por la psiquiatría de orientación médica es simplemente abrumadora. Una y otra vez se describen los sensibles progresos de los pacientes, su notorio mejoramiento respecto de la postración y el hacinamiento anterior. Una y otra vez, sin embargo, estas buenas nuevas naufragan ante los requerimientos del orden social, y alguna nueva oleada “científica”. La abierta locura mayoritaria condena a la minoría de los llamados locos al encierro, y a terapias casi indistinguibles de la simple represalia punitiva. Los momentos antipsiquiátricos de la psiquiatría se pierden y no logran formar una tradición, arrasados por la marea del totalitarismo racionalista que es llamado habitualmente ciencia. Los ejemplos que expongo a continuación, la mayoría del siglo XX, algunos aún reconocidos y comúnmente usados, son el lado opuesto, ominoso, dominante, del oficio psiquiátrico.


d. La intervención terapéutica sobre el sistema nervioso

1. La Frenología

El modelo médico en psiquiatría alcanzó su culminación desde el auge de la exploración del sistema nervioso, a fines del siglo XIX. Más adelante veremos que otro componente esencial en esta culminación es la moderna taxonomía de los trastornos psiquiátricos introducida por Emil Kraepelin (1856-1926). Como veremos, ambos componentes están estrechamente relacionados.


El precedente más importante, y el que ha tenido un impacto más duradero, sin embargo, es la Frenología, predicada por Franz Joseph Gall (1758-1828), y la craneometría como su procedimiento diagnóstico, que es su consecuencia directa.


Gall tenía una visión eminentemente analítica de la actividad mental. Supuso que podía entenderse como combinatoria de facultades definidas, que se podían caracterizar clara e independientemente unas de otras. Siguiendo una antigua tendencia, que proviene de las soluciones de compromiso en las disputas entre médicos y sacerdotes, incluyó entre esas facultades tanto facultades cognitivas (como la memoria o la inteligencia), como emotivas (como la ira o la euforia), como otras francamente valóricas (como la propensión a la envidia o a la violencia). Una mezcla que se repite en el sistema análogo de la fisiognómica, propuesto por Johannes Kaspar Lavater (1741-1801)[83], y se prolonga de manera apenas velada en las taxonomías de Kraepelin y sus herederas, las del famoso sistema DSM.


Pero además, Gall asoció esta modularidad de la actividad mental a una visión también modular del sistema nervioso, relacionando de manera directa cada uno de los aspectos de su taxonomía de la subjetividad con lugares específicos del cerebro. Una idea de este tipo es la que se puede resumir como “teoría de las localizaciones cerebrales”.


A pesar de su nula capacidad explicativa o predictiva, la frenología, aumentada por la fisiognómica, tuvo un enorme éxito. Generaciones de craneómetras, como el antes citado Paul Broca, animados por las extensas investigaciones antropométricas del curioso y ocurrente Adolphe Quetelet (1796-1874),[84] se dedicaron a tratar de darle una base empírica.


En una derivación que llegó a tener siniestras consecuencias, otro entusiasta de la estadística, el Caballero de la Corona Británica, y primo de Charles Darwin, Francis Galton (1822-1911), considerado uno de los fundadores de la psicología del siglo XX, sostuvo que estas diferencias antropométricas, y sus correlatos en la personalidad eran hereditarios, y promovió la ciencia y la práctica que llamó eugenesia.[85] Acogiéndose a los principios de la selección natural propuestos por su primo, sostuvo que era razonable y deseable esterilizar a los seres humanos que sufrieran alteraciones extremas, y evitar así la propagación a través de sus descendientes de esos males.


En contra de lo que se suele creer, el país donde la eugenesia tuvo más defensores, y el primero que dictó leyes que la hacían obligatoria, fue Estados Unidos, no Alemania. Todos los médicos que la promovieron en la época nacional socialista (nazi) citan como sus fuentes, y como motivo de admiración, a los eugenistas norteamericanos.


Ya en 1896, en Estados Unidos, se dictaron leyes que prohibían el matrimonio con o entre “epilépticos, imbéciles o débiles mentales”. Entre 1927 y 1967, cuando por fin fue prohibida, se practicó la esterilización forzosa de 63.000 personas calificadas de “enfermos mentales”. En Suecia, un país reputado como liberal y defensor de los derechos humanos, se practicaron otras 60.000 esterilizaciones forzosas entre 1934 y 1975. Otros países muy civilizados, como Inglaterra, Noruega, Francia, Suiza y Dinamarca, también practicaron la esterilización de “enfermos mentales” de manera masiva.[86]


A pesar de su horror, y porque sus principales víctimas fueron los llamados “enfermos mentales”, me interesa detenerme aquí sobre la frenología y la eugenesia por su carácter científico, y por las proyecciones que sus supuestos y modos de validación siguen teniendo hasta el día de hoy en psiquiatría.


Desde un punto de vista epistemológico, la frenología es un ejemplo extremo de la falacia del consecuente, de aplicación general hasta hoy en la psiquiatría médica. Ocurre que, aun en el caso de que haya una correlación entre la extensión del hueso frontal y la inteligencia (los inteligentes tendrían la frente amplia), cuestión que no ocurre en absoluto, eso no puede significar que la extensión de ese hueso sea la causa de la inteligencia ni, menos aún, que haciendo variar sus dimensiones se pueda lograr algún cambio en el rasgo que se ha correlacionado con ella. Ni las correlaciones pueden ser convertidas sin más en juicios causales (y, en este caso, ni siquiera en sentido pragmático), ni de la afirmación del síntoma (la inteligencia) se puede inferir su causa (el hueso). Los inteligentes de frente estrecha no sólo son perfectamente posibles, hasta es posible que abundaran entre los craneómetras.


También en el plano epistemológico, por otro lado, la eugenesia es una consecuencia extrema de la introducción de la curva normal de Gauss, y de los coeficientes de correlación estadística en la consideración de asuntos subjetivos y sociales. Y uno de los fundadores de esta práctica es justamente Francis Galton, y su admirado maestro Quetelet.


El asunto aquí, propiamente metodológico, antes de su connotación ética, es el uso de la normalidad estadística, obtenida a través de un mero recuento aritmético, para establecer índices deseables, que valga la pena mantener o perseguir. Ni aun en términos puramente objetivos lo que ocurre “la mayor parte de las veces” es lo mejor para el estado de un sistema cualquiera. El supuesto que hay que hacer para mantener semejante idea es el de un equilibrio y una estabilidad sistémica tan alta que impediría todo cambio significativo. Notar, por ejemplo, que no ocurre que “la mayoría de las veces” la generación de un óvulo por el ovario conduzca a la formación de un embrión y a un nacimiento, ni “la mayoría” de los espermatozoides logran su objetivo, si ocurriera sería catastrófico para cualquier población biológica.


El supuesto de semejante regularidad, que proviene directamente de las operaciones más arraigadas del pensamiento ilustrado, ignora el rol que cumplen, aun en la naturaleza puramente objetiva, las catástrofes, los procesos recursivos, las derivas caóticas de sistemas deterministas, los procesos de autoorganización, es decir, justamente el tipo de ingredientes que hoy se consideran típicos de los procesos complejos. Y no puede caber ninguna duda que si hay procesos que sean efectiva y densamente complejos, el primer candidato sería justamente los que ocurren en el marco de la subjetividad humana. Someter a Leonardo da Vinci, o a una tristeza común a los criterios de la normalidad gaussiana es simplemente una estupidez. Pero es una clase de estupidez que, en la modernidad, suele ser típica de los más inteligentes.


Aunque la eugenesia está hoy ampliamente desacreditada, científica y políticamente, la lógica de la fisiognómica, es decir, de la relación entre proporciones corporales y rasgos de personalidad sigue plenamente vigente. He citado ya a Ernst Kretschmer, que es enseñado habitualmente en escuelas de psicología, para quien la tipología corporal “pícnica” (gordo, bajo, grueso) estaría en la base de la personalidad “ciclotímica”, mientras que los tipos corporales “leptosómicos” (delgado, pequeño, débil) serían típicos de las personalidades “esquizotímicas”. Diferencia que reproduce la antiquísima dicotomía entre “maníaco-depresivos” y “esquizofrénicos”, ya mencionada con otros términos por Celso, en el s. II, y consagrada científicamente en los manuales de Emil Kraepelin.[87] No es menor el que esté en boga, una vez más, lo que se llama teoría “neo kraepeliniana”, que está también, por viejas y nuevas razones, sometida a debate.[88] Como tampoco es menor el uso cotidiano de la estigmatización fisiognómica en las policías y departamentos de inmigración de todos los países que se consideran desarrollados.


La influencia más profunda y extendida, sin embargo, es la de la frenología y su teoría de las localizaciones cerebrales. Lo que primero se intentó con la craneometría, se intentó luego con el electroencefalograma, con el daño quirúrgico localizado, con los potenciales evocados, con las tomografías CAT de rayos X, y es lo mismo que se intenta hoy con las técnicas PET y fMRI: correlacionar lugares específicos del cerebro con actividades cognitivas específicas, e incluso con rasgos de personalidad complejos. Y la falacia es siempre la misma: un uso extremadamente débil de los procedimientos de validación científica o, incluso, la simple falacia del consecuente.


2. La agresión directa al cerebro

Consecuencias directas de esta lógica general son algunas terapias psiquiátricas particularmente violentas, que deberían causar estupor en cualquier persona razonable, y que sin embargo fueron desarrolladas, ampliamente aceptadas y practicadas, en pleno siglo XX, en contra del mito general que relega los horrores médicos cómodamente al pasado lejano.[89]


Se trata de la lobotomía, la idea de combatir la psicosis infectando a los pacientes con malaria, la técnica de inducir comas diabéticos a través de inyecciones masivas de insulina, y el electroshock, que aún se usa, ahora bajo el nombre de “terapia electroconvulsiva”.


En 1935 el médico norteamericano John Fulton, en la Universidad de Yale, extirpó partes del lóbulo frontal de dos chimpancés y comprobó que su comportamiento se hacía notoriamente menos agresivo. Ambos animales murieron al poco tiempo, como efecto de la operación.[90] Ese mismo año, Fulton expuso su experimento en el Segundo Congreso Internacional de Neurología en Londres, donde fue escuchado por Antonio Egas Moniz, entonces profesor en la Escuela de Medicina de la Universidad de Lisboa.


Antonio Caetano de Abreu Freire Egas Moniz (1874-1955) fue un aristócrata portugués que se graduó como médico en la Universidad de Coimbra. Después de ejercer como médico durante algunos años estudió neurología en Paris, y llegó a ser profesor en Coimbra en 1902. Sin embargo, fue elegido diputado en 1903, y se dedicó a una carrera política como parlamentario primero, hasta 1917, e incluso como Ministro de Relaciones Exteriores, en 1918, y embajador en España, hasta 1919. Sólo tras dejar la política volvió a la medicina, en 1921, en la Universidad de Lisboa, donde ejerció como profesor hasta 1944. Durante esta estancia, en 1935, reprodujo el experimento de Fulton en un chimpancé, y decidió, sobre la base de esta única operación, aplicarla a los asilados (pobres) del Hospital Psiquiátrico asociado a la Universidad.


A pesar de que el mismo Egas Moniz informa que sólo un tercio de los pacientes tratado muestran una mejoría importante, casi un tercio empeoró, e incluso que algunos murieron como producto de las complicaciones de la operación, la lobotomía se difundió con increíble rapidez. A partir de su informe, ya en 1936, apenas un año después de sus experimentos, se había publicado más de treinta artículos y un libro sobre el tema, y al menos en seis países se convirtió en un procedimiento estándar.[91]


El método de Egas Moniz consistía en practicar varias perforaciones pequeñas en ambos lados de la cabeza, y a través de ellas destruir tejido cerebral, primero inyectando alcohol puro, y luego con un bisturí especial que llamó “leucotomo”, porque su objetivo era destruir porciones de la sustancia blanca del cerebro. Recibió el Premio Nobel de Medicina en 1949, por este procedimiento.


Pero, nuevamente, la tierra del entusiasmo fue Estados Unidos. Desde 1936, el doctor Walter Freeman (1895-1972), que también había estado en la conferencia de Fulton en Londres, desarrolló, junto a James Watts, un procedimiento que consistía lisa y llanamente en introducir un picahielos a través del hueco ocular hasta alcanzar el cerebro y luego moverlo de un lado a otro para destruir parte del lóbulo frontal. Esta maniobra podía hacerse de manera ambulatoria, sólo con anestesia local, más bien para proteger el ojo. Freeman instaló su mesa de operaciones en una camioneta a la que llamó “lobotomóvil”, y se paseó por muchas ciudades de Estados Unidos anunciando un tratamiento que, según él, se mostraba particularmente eficaz con “esposas rebeldes, desempleados, negros y judíos”. Pudo realizar más de 3500 lobotomías ambulatorias antes de que, en 1958, se le retirara la licencia de médico como resultado de la muerte de un paciente en el lobotomóvil… mientras Freeman posaba para una fotografía.


Hay que notar, sin embargo que la pérdida de su licencia no ocurrió por el tipo de operaciones que hacía, de hecho se continuaron practicando hasta los años 70. A pesar de que ya en 1947 un extenso estudio, sobre 14000 casos mostraba que la lobotomía no tenía ninguna eficacia validable, y que los éxitos que se informaban carecían de todo control científico, entre 1936 y 1965 la sufrieron más 50.000 personas sólo en Estados Unidos. Entre ellas Rose Marie F. Kennedy (1918-2005), hermana del presidente John F. Kennedy, quien tuvo que ser internada de por vida después, afectada de graves dificultades motoras y cognitivas, después de que en 1941 (a los 23 años), Walter Freeman destruyera parte de su tejido cerebral. Rose Marie sobrevivió 64 años internada en un asilo, incapaz de controlarse por sí misma. Su pecado, como el de miles de otras víctimas, tener una adolescencia difícil, querer estudiar literatura, ser considerada como un caso de “leve retardo mental”.


A pesar de esta oscura historia, formas acotadas de destrucción de tejido cerebral aún se consideran aceptables para casos en que se requiera el control conductual de pacientes violentos en países como Japón, Australia, Suecia e India.


En 1887, el médico alemán Julius Wagner von Jauregg (1857-1940), notó que algunos de los pacientes psicóticos que atendía en el Hospital Psiquiátrico de la Universidad de Graz parecían mejorar o remitir sus síntomas cuando enfermaban de erisipela o tuberculosis. Llegó a la conclusión de que lo que producía esta mejoría era la fiebre. A partir de estas observaciones tuvo una ocurrencia asombrosa… infectar con malaria a sus pacientes psicóticos con el objetivo de producir en ellos estados febriles agudos. En experimentos realizados desde 1917, mostró que ciertas formas de parálisis progresiva, asociada a cuadros de sífilis que conllevan trastornos mentales, podían ser mejoradas de manera importante a través de esta infección. Por esta terapia, recibió el Premio Nobel de Medicina en 1927. Resumió sus investigaciones al respecto en un libro, publicado en 1931, que se llama “Prevención y tratamiento de la parálisis progresiva a través de la inoculación de malaria”.


El doctor húngaro Ladislas Joseph von Meduna (1896-1964) notó, a través de análisis post mórtem, que los pacientes epilépticos tenían más células gliales en el cerebro que las personas normales y, a la inversa, que los pacientes esquizofrénicos tenían menos células de ese tipo que lo normal. Observó también que los pacientes que tenían esquizofrenia nunca padecían de epilepsia y, a la inversa, que parecía no haber pacientes epilépticos y a la vez esquizofrénicos. A partir de estas evidencias, y contra toda lógica[92], concluyó que aumentando las células gliales del cerebro se podía curar la esquizofrenia, y sabía que esto se podía hacer produciendo daños locales en el tejido cerebral, daños que el cuerpo tiende a reparar multiplicando justamente las células gliales, que hacen de soporte entre las neuronas. Y entonces, de manera consistente con su falta de lógica… decidió que producir ataques epilépticos en esquizofrénicos podría curarlos de su mal.


Para esto, en 1934, probó con varias sustancias, hasta que se decidió por el alcanfor, que se usa habitualmente como veneno para las polillas. Inyectó alcanfor a sus pacientes en dosis progresivas, hasta que consiguió producirles ataques de tipo epiléptico. A pesar de que sólo tres de los once pacientes con que experimentó mostraron alguna mejoría (Meduna no especifica ni el rango ni la duración de tal mejoría, y las observaciones las hizo él mismo), consideró que su terapia era un éxito, y empezó a aplicarla regularmente. Muy luego reemplazó el alcanfor, demoroso y poco confiable, por el pentylenetetrazol, que más tarde fue comercializado como Metrazol. El efecto eran devastadoras convulsiones de tipo epiléptico. Los mismos estudios en que se exalta y recomienda efusivamente este tratamiento reconocen y advierten que más de un cuarenta por ciento de los pacientes habían sufrido lesiones a la columna debidas a la violencia de la reacción a la droga, y sólo se limitan a recomendar cuidados periféricos contra este efecto desagradable.


El mismo Meduna informa que se podía obtener “éxito” sólo en la mitad de los casos. Sin embargo, sólo describe de manera vaga y genérica qué es lo que considera “exitoso”. Por un defecto curioso en las taxonomías psiquiátricas que se usaban en su época, se solía asociar los cuadros de catatonia a la esquizofrenia, esto llevó, casualmente, a aplicar el tratamiento también a catatónicos… y la mayor parte de los casos que se informaron como éxitos provienen de esta clase de pacientes. Es importante saber que la terapia convulsiva fue presentada como “cura” de la esquizofrenia, incluso en los informes científicos y técnicos que la describían, a pesar de que esos mismos informes no registran ningún paciente como efectivamente “curado”, y sólo hablan de mejorías en los síntomas.


Pero las “terapias de shock”, bautizadas de esta manera por el mismo Ladislas Meduna, tuvieron dos versiones más, creadas en la misma época, y casi bajo la misma lógica. En 1927, el médico alemán Manfred Joshua Sakel (1900-1957), entonces en el Hospital Psiquiátrico de la Universidad de Viena, aplicó insulina a sus pacientes psicóticos, bajo la idea de que con esta sustancia se podrían mantener los niveles de actividad neuronal que “algún agente nocivo” estaría trabando.[93]


Hay que decir que la insulina se había descubierto recién en 1922, y se había explorado su utilidad respecto de las funciones pancreáticas. Se había comprobado que, en pequeñas cantidades, debido a su capacidad de metabolizar la glucosa, podía ser usada para estimular el apetito. Nada hacía suponer que podría cumplir una función en el sistema nervioso. Sakel administró insulina en diferentes dosis para este propósito, estimular el apetito en pacientes adictos a drogas. En algún momento, y de manera accidental, administró una sobredosis y constató que producía convulsiones extremadamente fuertes, pero constató también que la adicción parecía disminuir. Entonces, sobre la base de este único paciente, empezó a aplicar sobredosis de insulina para producir a propósito esas convulsiones, para tratar la adicción.


Animado por la observación de que los pacientes adictos parecían mejorar su condición, Sakel, que no tenía absolutamente ninguna teoría medianamente razonable acerca de por qué se producía ese efecto, decretó la administración de sobredosis diarias, que producían convulsiones hasta el grado de llevar al paciente al estado de coma por la falta generalizada de glucosa en el cerebro. Después de unos minutos se podía sacar al paciente del estado de coma administrándole nuevamente glucosa.


Uno de los pacientes que trató había sido diagnosticado también como esquizofrénico. Sakel comprobó que esta condición mental también parecía mejorar. Esto lo llevó a ampliar su procedimiento a la esquizofrenia, que es el uso que luego se le dio de manera general. Cuando emigró a Estados Unidos en 1934, su terapia fue adoptada casi de inmediato. Ya hacia 1940 más de la mitad de las clínicas psiquiátricas la aplicaban. Pero, a pesar de que en sus informes declara que cerca del noventa por ciento de sus pacientes habían mejorado sus condiciones, ninguna observación posterior ha confirmado esos niveles de éxito.


La mayoría de los psiquiatras reconocen hoy que la terapia basada en inducir comas por sobredosis de insulina es ineficaz, extremadamente violenta, somete al paciente a riesgos enormes, es inhumana e innecesaria. Sin embargo estas opiniones sólo empezaron a generalizarse después de que miles de pacientes en todo el mundo habían sido sometidas a ellas, y sólo porque se encontraron nuevas drogas que producían efectos similares aparentemente con menos complicaciones físicas.


Quizás lo más notable es que, tal como en el caso de las otras “terapias de shock”, durante toda la época de su apogeo (años 30-60) nadie tenía ninguna teoría razonable acerca del mecanismo que producía sus aparentes éxitos, cada vez que se hacían estudios de campo sobre esos éxitos resultaba que eran sustancialmente menores a los que sus defensores proclamaban, nuevamente encontramos que, después de miles y miles de casos, cada uno con decenas de aplicaciones, ningún paciente fue declarado sano tras recibirlas, por el contrario, todo el mundo sabía de su extrema violencia y de los constantes y brutales daños físicos que podían producir en pacientes sometidos a tensiones físicas capaces de romper la columna vertebral, de producir profundas laceraciones en la piel, y nadie se hacía cargo de estos daños, que se consideraban meramente colaterales y secundarios respecto de los supuestos beneficios. Sólo muy a posteriori, y sólo embarcados en la nueva moda de las drogas, muchos psiquiatras han declarado el horror que a ellos mismos les producían. Ver al respecto el interesantísimo texto citado de Deborah B. Doroshow, que examina el contexto y las condiciones que rodean a este horror a posteriori. Un horror moralmente curioso, que atraviesa toda la historia de la psiquiatría.


Estas terapias violentas (extirpar o dañar partes del tejido cerebral, infectar con malaria, provocar convulsiones inyectando alcanfor o Metrazol, llevar las convulsiones hasta el grado de producir un estado de coma por sobredosis de insulina) suelen ser consideradas como parte de un pasado algo vergonzoso de la psiquiatría. Hay algunas cosas que se omiten culposamente al considerarlas de esa manera. Una es que se trata de un pasado extremadamente reciente, y nada parece indicar que la lógica con que fueron creadas y practicadas haya cambiado de manera sustantiva. Otra es que algunas de ellas se siguen practicando, bajo otros nombres y de manera más focalizada. Es el caso de la lobotomía, que ahora se incluye dentro de la psicocirugía, de la que, por supuesto, se dice que es “completamente distinta”. Sin embargo, desde 1961, el doctor Hideki Narabayashi, imitado muy luego en Estados Unidos por Vernon H. Mark[94], sostiene que es posible erradicar las conductas violentas a través de una destrucción parcial de las amígdalas cerebrales. Y también, por último, que se sigue considerando plenamente vigente otro tipo, que tiene las mismas características: las terapias de electroshock.


El electroshock fue desarrollado por los médicos y psiquiatras italianos Ugo Cerletti (1877-1963), y Lucio Bini (1908-1964) desde 1938.[95] El mismo Cerletti cuenta cómo llegó a esta técnica, en su libro, en 1956, “me informaron que en el matadero de Roma se mataba a los cerdos con corriente eléctrica. Fui al matadero y noté que apenas se aplicaba corriente sobre las sienes de los cerdos, estos se ponían rígidos y después, tras algunos segundos, sufrían convulsiones, tal como los perros que habíamos usado en nuestros experimentos. Durante el período de pérdida de consciencia el matarife degollaba y desangraba al animal sin dificultad. No era cierto, por la tanto, que se matara a los animales con corriente eléctrica; más bien se la usaba para poder matarlos sin hacerlos sufrir”. (Citado en el artículo de Th. Szasz)


Cerletti tuvo entonces la idea de hacer él mismo experimentos con cerdos, para encontrar con cuánta electricidad se podía conseguir los efectos que había observado. Llegó a la conclusión que alrededor de 125 volts, durante unas décimas de segundo, eran suficientes para lograr el efecto sin hacer ningún daño aparente al animal. En ese punto decidió que ya sabía lo suficiente como para probar esta técnica en seres humanos.


Él mismo cuenta en sus notas que en Abril de 1938 la policía le mandó a un individuo, Enrico X, que había sido detenido mientras trataba de subir a un tren sin haber pagado el boleto. El hombre mostraba los signos que hacen pensar, a las personas comunes, que podría tener sus facultades mentales perturbadas. Cerletti al recibirlo indica que estaba lúcido, que tenía ideas delirantes, que la mímica que hacía correspondía al sentido de sus palabras, que su estado de ánimo era indiferente a lo que lo rodeaba. Dice que tenía sus “reservas afectivas bajas”, y agrega que tenía algunas dificultades de audición y cataratas en el ojo izquierdo.


Para resumir este cuadro Ugo Cerletti escribe “se llegó a un diagnóstico de esquizofrenia sobre la base de su comportamiento pasivo, la incoherencia, las reservas afectivas bajas, las alucinaciones, las ideas delirantes referidas a las influencias que decía sufrir, y los neologismos (esto es, las palabras del lenguaje vulgar) que usaba”. Esto le pareció suficiente a nuestro psiquiatra para convertir a este detenido por la policía en la persona que habría de sufrir, según él mismo dice, “el primer experimento de convulsiones eléctricas inducidas sobre un hombre”. Y en seguida describe con todo detalle cómo se aplicaron los electrodos, cuánta corriente aplicó y durante cuánto tiempo y las reacciones del sujeto experimental. Como Cerletti, que entonces tenía más de sesenta años, padecía de artritis, la aplicación del procedimiento estuvo a cargo de Bini.


Cerletti nos dice en su escrito “apenas se indujo la corriente, el paciente reaccionó con un sobresalto y sus músculos se pusieron rígidos, después se desplomó sobre la cama sin perder el conocimiento. Luego empezó a cantar con voz clara y después se calmó”. Le habían aplicado 80 volts durante dos décimas de segundo. Luego nos cuenta que todos los asistentes al experimento estaban bastante tensos, sin saber qué es lo que ocurriría, pero cuando vieron la reacción del paciente concordaron que en realidad habían usado un voltaje muy bajo. Se comentó sobre la posibilidad de repetir el experimento al día siguiente, todo esto en voz alta, sin ninguna traba, delante del paciente, que todavía estaba en la sala. Entonces, al oír que se iba a repetir el experimento el hombre reaccionó. Ugo Cerletti lo cuenta de esta manera: “De improviso el paciente, que evidentemente había seguido nuestra conversación dijo, clara y solemnemente, sin mostrar la falta de articulación en su discurso que había demostrado hasta entonces “otra vez no!, es terrible”. Y luego nuestro psiquiatra agrega “confieso que una advertencia así de explícita, tan enfática y autoritaria, hecha por una persona cuya enigmática jerga hasta entonces había sido difícil de comprender, hizo vacilar mi determinación de continuar el experimento. Pero el temor a ceder ante una idea supersticiosa me hizo decidirme. Se aplicaron nuevamente los electrodos, y pusimos esta vez una descarga de 110 volts”. (Citado en el artículo de Thomas Szasz)


En suma lo que ha ocurrido es: los psiquiatras Ugo Cerletti y Lucio Bini aplicaron una técnica que se usaba en el proceso de matar cerdos a un ser humano que le había sido encargado por la policía, que en lugar de procesarlo por un delito menor y una conducta extravagante se lo mandó, detenido, a un psiquiatra. Este psiquiatra decidió que tenía esquizofrenia y lo sometió a un experimento médico sin autorización ni de la policía, ni del mismo paciente, ni de ninguna persona conocida que pudiera asistirlo. Reconoce que no tenía idea de cuáles serían los efectos de su experimento, pero decide repetirlo, a pesar de que el paciente le pide claramente, de manera racional, que no quiere pasar por eso nuevamente, aplicando más voltaje en la segunda vez.


Enrico X, la víctima, recibió dieciocho sesiones de electroshock durante los dos meses siguientes, la mayoría con dos o tres aplicaciones, porque las primeras se consideraban “fallidas” en la medida en que no alcanzaban a producir convulsiones. Incluso es presentado ante la Academia de Medicina de Roma, el 28 de Mayo de 1938. Se le aplica esta terapia en un auditórium lleno de profesionales médicos, que aplauden calurosamente después de la sesión, a pesar de que el paciente tiene largos espasmos, y demora más de diez minutos en volver en sí. La noticia de esta sesión aparece al día siguiente en primera plana de los principales diarios italianos. El 17 de Junio Enrico X es dado de alta, consignándose en su historial que ha sido “curado” de su “esquizofrenia”, y vuelve a su hogar en Milán, no sin antes escribir una carta agradeciendo a sus benefactores. Sin embargo en Marzo de 1940 la policía se ve obligada a llevarlo nuevamente a un manicomio, donde es nuevamente encerrado, porque presenta los mismos síntomas originales. Su mujer escribe a Lucio Bini y a Ugo Cerletti reiteradas veces, rogándoles que vuelvan a aplicar el tratamiento… Cerletti y Bini nunca respondieron esas cartas.


El electroshock, tal como las terapias que he descrito antes, fue adoptado con sorprendente rapidez. En muchos lugares se lo prefirió al Metrazol porque era más barato. Desde 1940 miles de personas fueron sometidas a diversos estándares terapéuticos, sin que se llegara a una fórmula común de frecuencia de las aplicaciones, voltajes convenientes, o sintomatologías para las cuales resultaba más indicado, hasta fines de los años 50. Durante esos veinte años (1938-1960) fue aplicado regularmente en condiciones que en la mayoría de los casos podían ser consideradas aún como experimentales, y que sin embargo se practicaban como si fuesen procedimientos estándar. Hasta hoy abundan los estudios científicos que informan que tales o cuales variaciones del procedimiento son más o menos adecuadas, es decir, que dan cuenta de cómo no existe un consenso general acerca del modo de su aplicación, ni mucho menos acerca de los mecanismos internos que estarían a la base de su eventual eficacia.


Un caso particularmente dramático es el de la prestigiosa psiquiatra infantil Laurette Bender (1897-1987), muy celebrada por sus contribuciones al tratamiento de las dificultades de aprendizaje, la que entre los años 1942 y 1956 aplicó, de manera experimental, electroshock a más de doscientos niños, todos menores de doce años, el menor de tan sólo tres. Hoy en día esta práctica se considera extremadamente riesgosa.


Hoy en día, sin embargo, según el discurso psiquiátrico imperante, ya no se aplicarían choques eléctricos a los pacientes en estas condiciones. El método ha sido reemplazado por lo que se llama “Terapia Electroconvulsiva” (TEC), que consiste en… aplicar choques eléctricos a los pacientes. Los cambios, que se convirtieron en un protocolo de atención a principio de los años 80, incluyen la aplicación de corriente constante (y no la corriente alterna común), que se considera produciría menos daños cognitivos (esto fue introducido recién en 1976), un cambio en los puntos de la cabeza en que se aplican los electrodos, y una sustancial reducción de la frecuencia de las aplicaciones, que inicialmente podían repetirse cada día, o incluso más de una vez al día. Desde fines de los años 40, tras una década de administración de estos tratamientos a miles de personas, se empezó progresivamente a aplicar sedantes, para evitar las convulsiones en el plano muscular, pero estas convulsiones son tan intensas que ya desde fines de los años 50 el uso común es usar anestesia general. Este cuidado, sin embargo, representa una embarazosa dificultad: es difícil y caro encontrar la cantidad de anestesistas necesarios para tal tarea, existe un amplio consenso en que la aplicación de anestesia general, siendo un procedimiento confiable, es una tarea delicada, que puede tener graves consecuencias, y que sólo puede ser administrada por un especialista. La solución es muy simple: en muchos países en desarrollo, particularmente en Nigeria y la India… se aplica sin anestesia.


Después de que el movimiento antipsiquiátrico de los años 60 apuntó severamente contra la práctica del electroshock, en los años 70 y 80 hubo una notoria disminución de su aplicación, sobre todo en Estados Unidos e Inglaterra. Por un lado la oleada de nuevas drogas, que casi formaban un continuo con las de la cultura popular de esos años, por otro lado las masivas consecuencias “secundarias”, como fracturas de huesos, pérdidas de memoria, o simplemente casos de muerte, contribuyeron. Una persistente y nunca explorada relación entre electroshock y suicidio llegó a ser un ingrediente de su impopularidad. Escritores como Ernest Hemminway, Silvia Plath y Antonin Artaud, sufrieron sus consecuencias. Los dos primeros se suicidaron inmediatamente después de haber recibido sesiones intensivas, con métodos que aún se usan. Sin embargo, se calcula que hoy en día más de 100.000 personas cada año reciben electroshock sólo en Estados Unidos, y otras 200.000 en el resto del mundo, y que más de cinco millones de personas lo han recibido desde que se inventó.


Desde los años 80, sin embargo, dos desgraciadas circunstancias han contribuido a su nuevo auge. La primera es que se ha impuesto progresivamente en los sistemas de seguros médicos de todo el mundo la idea de que se trataría de una terapia aceptable, barata, que permitiría captar los subsidios que los estados están dispuestos a pagar por tratamientos psiquiátricos. La segunda es que se ha llegado a considerar que es “más eficaz” la combinación del electroshock con diversas drogas de “última generación”. Ambos factores han conducido a una sospechosa ampliación de los cuadros en que se lo considera útil: una terapia que fue inventada para la esquizofrenia, que llegó a considerarse eficaz sólo para la depresión mayor, hoy en día es considerada aceptable para casi todas las formas de la depresión media o severa, para las consecuencias del mal de Parkinson, nuevamente para la esquizofrenia. El resultado es que en Estados Unidos ha aumentado explosivamente su uso en mayores de 60 años, prácticamente al mes siguiente de que empiezan a operar los seguros médicos correspondientes. El resultado es que más del 70% de las personas sobre las que se aplica son mujeres, y más del 30% son ancianos internados en asilos. Y, por supuesto, la inefable Oficina de Drogas y Alimentos de Estados Unidos (FDA), espera contribuir una vez más a estos intereses, disminuyendo la estimación de riesgo para este procedimiento de “alto”, que se mantenía desde principios de los años 70 a “medio”.[96]


Y nuevamente nos encontramos con lo que debería ser la mayor causa de estupor ante tales prácticas: prácticamente nadie pretende que el electroshock cure una eventual enfermedad psiquiátrica. Las discusiones más cercanas a este punto son en torno a la duración de sus efectos, y prácticamente todos coinciden en que no duran más allá de seis meses. La razón es muy simple: no existe consenso alguno acerca de los mecanismos internos, a nivel neuronal, de los que se derivarían los supuestos beneficios. Peor aún, sí existe en cambio un amplio consenso en torno a sus efectos “secundarios” permanentes, en torno a los cuales, sin embargo, a pesar de las protestas de los críticos, se hacen toda clase de consideraciones en torno a la posibilidad de aliviarlos, aminorarlos, sin que nadie sepa realmente como evitarlos.

UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::00/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::01/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::02/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::03/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::04/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::05/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::06/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::07/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::08/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::09/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::10/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::11/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::12/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::13/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::14/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::15/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::16/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::17/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::18/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::19/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::20/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::21/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::22/es

Como he señalado antes (Capítulo II), todo el mundo reconoce que los procedimientos médicos tienen tanto efectos positivos como negativos, y que el asunto, siempre complejo, es evaluar esa relación. Intervenir de tal manera que los beneficios sean claros e importantes, y que el eventual daño ni los anule ni cree problemas que sean mayores. No es difícil, en esta lógica, evaluar, desgraciadamente en retrospectiva, de una manera abiertamente negativa los procedimientos de agresión física directa al cerebro, como la lobotomía o la terapia de shock por sobre dosis de insulina. Hay un amplio debate acerca del balance negativo de los llamados “tranquilizantes mayores”, o de los “antipsicóticos” de primera generación. El debate sigue teniendo defensores y detractores en el ámbito de los trastornos mentales más agudos, pero ya muy pocos, ni siquiera las autoridades de salud, siempre tan obsecuentes con la industria, se atreven a defender su viabilidad para trastornos comunes o leves. En este sector de usuarios, que cuenta con decenas de millones de clientes, poco a poco los resguardos ante las demandas posibles han llevado a una cierta prudencia. Hay dos excepciones dramáticas, que muestran una vez más la avidez mercantil de industrias que no están dispuestas a dejar de lado productos que les han dado tantas ganancias por simples consideraciones humanitarias. Una es el hecho, cada vez más recurrente, de que se receten las drogas de primera generación en dosis menores, incluso para cuadros completamente distintos a aquellos para los que fueron introducidas. Es el caso del metilfenidato, recetado a fines de los años 50 para casos de “fatiga crónica, estados letárgicos y depresivos, conducta senil perturbada, psiconeurosis y psicosis asociadas con depresión” explícitamente como estimulante, y “reciclado” luego para el “síndrome de déficit atencional e hiperactividad” para un efecto contrario, aumentar la capacidad de concentración. O de la resperidona, introducida al mercado para tratar casos agudos de esquizofrenia, y “reciclada” luego, en dosis menores como “modulador del ánimo”. La otra es la introducción indiscriminada de fármacos en los países del tercer mundo, donde la capacidad de control público es sustancialmente más débil.

UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::24/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::25/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::26/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::27/es UNA2::IV. La proyección del modelo médico sobre la psiquiatría::d. La intervención terapéutica sobre el sistema nervioso::Las terapias sobre la base de drogas::28/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::00/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::00/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::01/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::02/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::03/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::04/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::05/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::06/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::07/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::08/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::09/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::10/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::11/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::12/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::13/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::14/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::15/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::16/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::17/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::18/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::19/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::20/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::21/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::22/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::23/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::24/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::25/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::26/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::a. ¿Alteraciones respecto de qué?::27/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::00/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::01/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::02/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::03/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::04/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::05/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::06/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::07/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::08/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::09/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::10/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::11/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::12/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::13/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::14/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::15/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::16/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::17/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::18/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::19/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::20/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::21/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::22/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::23/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::24/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::25/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::26/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::27/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::28/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::29/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::30/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::31/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::32/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::33/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::34/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::35/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::36/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::37/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::38/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::39/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::40/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::41/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::42/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::43/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::44/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::45/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::46/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::47/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::48/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::49/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::50/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::51/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::52/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::53/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::54/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::55/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::56/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::57/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::58/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::59/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::60/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::61/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::62/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::63/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::64/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::65/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::66/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::67/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::68/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::69/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::70/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::71/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::72/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::73/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::74/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::75/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::76/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::77/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::78/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::79/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::80/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::81/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::82/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::83/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::84/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::85/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::86/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::87/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::88/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::89/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::90/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::91/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::92/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::b. Dificultades diagnósticas::93/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::00/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::01/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::02/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::03/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::04/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::05/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::06/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::07/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::08/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::09/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::10/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::11/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::12/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::13/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::14/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::15/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::16/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::17/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::18/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::19/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::20/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::21/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::22/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::23/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::24/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::25/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::26/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::27/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::28/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::29/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::30/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::31/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::32/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::33/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::34/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::35/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::36/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::37/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::38/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::39/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::40/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::41/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::42/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::43/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::44/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::45/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::46/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::47/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::48/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::49/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::50/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::51/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::52/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::53/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::54/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::c. Dificultades terapéuticas::55/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::00/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::01/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::02/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::03/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::04/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::05/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::06/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::07/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::08/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::09/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::10/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::11/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::12/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::13/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::14/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::15/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::16/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::17/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::18/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::19/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::20/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::21/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::22/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::23/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::24/es UNA2::V. ¿Son enfermedades las alteraciones del comportamiento?::d. Conclusiones prácticas y epistemológicas::25/es

VI. Alternativas al modelo médico

a. Enfermedades, desviaciones, diferencias

1. Curar enfermedades, disciplinar desviaciones

Para poder formular un fundamento para una alternativa al modelo médico de las alteraciones del comportamiento es necesario especificar mejor la idea de “alteraciones” y, junto a ella, la idea de “normalidad”.


Ahora, de manera más particular que lo que he hecho hasta aquí, es necesario distinguir el uso médico de la noción de normalidad de otro, al que podríamos llamar “social”. En el primer caso la alteración puede ser llamada “enfermedad”, en el segundo “desviación”. Aunque en el lenguaje cotidiano estas dos nociones no son independientes (se puede decir, por ejemplo, que la enfermedad es una desviación respecto de ciertos estándares médicos), voy a usarlas aquí como términos específicos, asociándoles un significado relativamente técnico.


La normalidad médica no es necesariamente la media de una distribución estadística de muchos casos. Esta diferencia respecto de las matemáticas puras se debe a la insistente asociación, en el gremio médico y en las creencias comunes, entre “salud” y “normalidad”, es decir, entre una idea que contiene de manera inevitable una estimación valórica (es preferible estar sano que no estarlo) y un valor que puede ser obtenido de un mero cálculo matemático realizado sobre un conjunto de datos empíricos.


Debido a esto hay al menos tres maneras de estar en un estado normal, o sano, o no alterado, desde un punto de vista médico:


- estar dentro de un rango de valores en torno a la normal matemática que se considera aceptable para una población, al que se ha llegado después de examinar indicadores orgánicos en muchos individuos (normalidad de una población);


- estar dentro de un rango de valores que se ha determinado como aceptable para un individuo después de haber medido muchas veces indicadores orgánicos en ese mismo individuo (normalidad de un individuo);


- estar dentro de un rango de valores que se consideran necesarios para la viabilidad biológica estable del organismo humano establecidos a partir de modelos empírico-teóricos de su funcionalidad (la normalidad como salud funcional).


Desde luego estos criterios no son, ni pueden ser independientes. Las dos primeras proveen la base empírica general de la tercera, pero esta a su vez se convierte en una base normativa para ellas. Es por esto que se puede declarar a toda una población como enferma (respecto de la viabilidad biológica), aunque la mayoría se encuadre dentro del rango matemáticamente normal, como ocurre en una epidemia de sarampión, en que la temperatura “normal” de la población está sistemáticamente alterada.


Pero esto significa también que un individuo que se mantiene dentro de su normalidad, podría estar sano aunque sus indicadores no estén dentro del rango de normalidad de la población. Sano en la medida en que es biológicamente viable aun con parámetros orgánicos “anormales”. Es el caso de las variables orgánicas que presentan un rango de variación muy amplio intrínsecamente, o en su relación funcional con otras, o con factores como la edad, el clima, la alimentación, etc. Es lo que ocurre con la presión sanguínea, la estatura, los niveles de calcio en los huesos, o el colesterol en la sangre. La salud de estos individuos “anormales” sólo puede ser evaluada a través de correcciones locales del estándar orgánico general, del modelo de funcionalidad biológica con que se piensa un ser humano, y a través de mediciones locales, en él y en su entorno cercano.


Este modelo, que da sentido médico a la superposición de “normal”, “sano” y “no alterado”, debe estar formulado en términos de variables orgánicas, de tipo fisiológico (funcionalidad biológica), anatómico (formas y proporciones corporales) y físico-químico (componentes y proporciones entre componentes), variables en principio observables y medibles de acuerdo a los estándares de la ciencia biológica, de tal modo que se puedan seguir de ellas las conexiones causales, los mecanismos de desarrollo y las manifestaciones sintomáticas que permiten evaluar si hay o no enfermedad. Tal como lo he expuesto en el Capítulo II, esto es lo que permite formular un modelo médico de enfermedad, y su correlato lógico, un modelo médico de los rangos de esas variables dentro de los cuales se puede hablar de salud. Y estos términos deberían ser correlativos con los que derivan de la intervención médica sobre ellos: curación, prevención, paliativo. Y retengamos aun otros: orgánico, fisiológico, anatómico. Se trata, hasta aquí, de un campo semántico consistente, que abarca un conjunto de situaciones observables, respecto de las cuales no tienen más ambigüedad que la que proviene de su propio desarrollo y progreso científico.


Existe, sin embargo, una larguísima historia de la extensión de este modelo médico, de manera metafórica, sobre realidades de tipo social.[97] Sobre esa extensión metafórica, ampliamente discutida y criticada, no me detendré aquí. Simplemente estableceré un criterio, que se sigue de los capítulos anteriores, para descartarla: no habiendo ningún acercamiento verosímil a las causas orgánicas de las alteraciones del comportamiento, no existiendo procedimientos diagnósticos, ni terapéuticos, que puedan siquiera acercarse a los estándares médicos, estamos obligados, por el estado de desarrollo del saber al respecto, y por el deber de respetar los derechos de los afectados, a considerar la extravagancia eventual de sus conductas de manera social, es decir, como desviaciones, no como enfermedades.


Las enfermedades son caracterizadas a partir de sus causas, o del mecanismo de su desarrollo. Las desviaciones, en cambio, son caracterizadas desde sus manifestaciones (que sólo impropiamente se pueden llamar síntomas). La normalidad empírica y modélica respecto de la cual se establece una situación como enfermedad está compuesta de variables orgánicas (fisiológicas, anatómicas, físico-químicas). Variables objetivables y en principio medibles. Por mucho que en los criterios que fijan sus rangos de variación aceptables intervengan valoraciones su núcleo es la viabilidad biológica. La normalidad respecto de la cual un comportamiento se considera alterado o desviado está presidida, en cambio, por criterios fuertemente valóricos, y sometida a toda clase de tensiones sociales, contextuales e históricas. En las enfermedades, en términos generales, hay causas inmediatas determinadas, que operan de manera claramente anterior a los síntomas. En las desviaciones sociales, en cambio, no es fácil distinguir claramente entre causas y efectos, y ambos interactúan fuertemente entre sí. Y es justamente esta interacción no lineal la que obliga a caracterizarlas a través de inventarios de efectos.


Típicamente la tuberculosis es una enfermedad y la rebeldía es una desviación. Pero el asunto es que justamente los casos más interesantes no son estos extremos simples, sino cuestiones como el alcoholismo, la homosexualidad o la locura. En cada uno de estos ámbitos impera un intenso debate, atravesado por toda clase de intereses sociales, en torno a su caracterización social o médica. Debate en que no faltan, por supuesto, las fórmulas burocráticas con que las Ciencias Sociales suelen abarcar aquello que simplemente no entienden, fórmulas como “tanto esto como lo otro”, o “bio-psico-social”, que más bien administran el problema, sin contribuir en absoluto a esclarecerlo.


La Organización Mundial de la Salud (OMS), organismo burocrático por excelencia, no ayuda mucho con su definición de salud. La entiende como “estado de completo bienestar físico, mental y social, y no solamente la ausencia de afecciones o enfermedad”.[98] A esto diversos investigadores creen necesario agregar “en armonía con el medioambiente”, y también en los medios católicos se suele agregar el ítem “bienestar espiritual”.


La principal crítica que se puede hacer a este concepto es que el término “bienestar” claramente implica connotaciones valóricas y políticas, lo que hace que se convierta en un concepto vago desde el punto de vista médico, que es justamente el que quiere expresar. Por esto se ha propuesto reemplazar ese término por “equilibrio” (físico, mental, social), pensando que las condiciones del equilibrio pueden ser establecidas de manera más objetivable. La crítica que puedo hacer aquí, a la luz de lo que he expuesto antes, sin embargo, es hacia la mezcla entre equilibrios “físicos” por un lado y “mentales” y “sociales” por otro que, de acuerdo al procedimiento típicamente burocrático, procede simplemente agregando “tanto esto como lo otro”.


Lo que sostengo es que un enfoque crítico debería distinguir entre el “equilibrio físico”, entendido como buen funcionamiento y funcionalidad orgánica, un asunto médico objetivable, y el “bienestar psíquico y social, entendido como “vivir a gusto”, un asunto valórico, político y social.


Por supuesto que se pueden establecer estándares objetivos que actúen como base del bienestar. La experiencia del bienestar propiamente tal, sin embargo, reside más bien en la percepción subjetiva de esos estándares que en ellos mismos. Por supuesto, de manera inversa, los estándares de equilibrio orgánico pueden ser percibidos y experimentados subjetivamente como nocivos o molestos, pero su fuerza reside en su objetividad, más que en su evaluación subjetiva. Desde un punto de vista lógico, la extensión de cada uno de estos ámbitos hacia el otro no impide en absoluto mantener entre ellos una clara distinción. Lo que sostengo es que mantenerla tiene un interés político de primer orden, sobre todo cuando tratamos de defender a las víctimas de la medicalización de la subjetividad.


La percepción subjetiva de los estándares en principio objetivos de la salud considerada de manera puramente médica es relevante en términos sociales. Clifton K. Meador planteó, en 1965, la hipótesis de que muchas situaciones son percibidas por las personas comunes como enfermedades, sin que necesariamente lo sean, porque al considerarlas de esa manera obtienen privilegios sociales y económicos relativos a los que de otra manera no accederían. En nuestro medio es el caso típico de las licencias médicas solicitadas por los usuarios, o del permanente intento de constatar una base orgánica más objetiva para las alergias, y darles una gravedad mayor que la del diagnóstico simple de estrés, con el consiguiente cambio en la consideración social de quien la sufre.


Meador llamó a estas situaciones “no enfermedades”, y sugirió, por supuesto antes de la hegemonía de la industria médica, que se trataría de situaciones en las cuales a los presuntos pacientes en realidad les iría mucho mejor si sus dolencias NO fuesen tratadas médicamente. Primero en 1979, y luego en 2002, el British Medical Journal, realizó una encuesta entre profesionales relacionados con la medicina para establecer un ranking de no enfermedades, destinado a hacer conciencia sobre esta situación. La vejez, la desnutrición, las sobredosis de barbitúricos, el hambre, estuvieron entre las dolencias más mencionadas.[99]


La idea es interesante, porque pone en discusión justamente el asunto de si todos las formas de sufrimiento admiten tratamiento médico y, de manera más específica, aun en el caso de que tal tratamiento sea imaginable (y la imaginación de la industria médica parece ser infinita), la de si tratar médicamente una dolencia es realmente el mejor camino para aliviarla o remitirla. Incluso, como muchos críticos han señalado, abre la discusión en torno a las razones efectivas, extramédicas, que llevan a medicalizar el sufrimiento.


Una situación que puede ofrecernos nítidas pistas sobre lo que está en juego es la medicalización de la delincuencia.[100] El derecho burgués clásico, con sus orgullosas premisas de autonomía racional de la voluntad, de libre arbitrio centrado en el individuo, acentuó la idea de responsabilidad personal, y de la pena como castigo social a un uso consciente y libre de la voluntad en contra de la ley. El delincuente sólo puede ser tipificado como tal si es reconocido como un hombre libre. Pero también, en la medida en que es reconocido como un ente racional, procede no sólo someterlo a castigo sino también darle la oportunidad de rehabilitación. Permanece en él un cierto derecho a reintegrarse de manera útil, y nuevamente libre, a la sociedad.


Pero esta lógica razonable, apropiada para delincuentes relativamente caballerescos, que han “caído” al delito por circunstancias desafortunadas, resulta netamente menos eficiente para los que han cometido delitos que se consideran demasiado graves (la pedofilia, el parricidio), o para los que reinciden de manera contumaz (a pesar de las amenazas, de maneras más graves), o a los que no atentan contra una o varias normas sino que muestran una resistencia al orden establecido como tal. ¿Cómo rehabilitar al rebelde sistemático, al delincuente particularmente cruel, o al reincidente contumaz?


Aquí la metáfora médica revela de manera directa y sin rubor alguno su interés social: hay un límite en que el delincuente ya no puede ser rehabilitado… porque está enfermo. Una constante “misteriosamente” ad hoc atraviesa los muchos casos de medicalización del delito, aun en los casos en que se invoque para exculpar a alguien: se constata que se trata de enfermedades incurables, y se recomiendan formas de encierro lo más humanas posibles, pero indefinidas.


Este encierro, que ahora se receta por razones médicas, permite suspender los derechos civiles y políticos del acusado, algunos a través de la interdicción explícita y otros simplemente de hecho, en virtud del encierro mismo. Desde luego la premisa para esta suspensión, por su propio bien, es el desconocimiento del libre albedrío, y de todas las connotaciones y privilegios que la cultura moderna le atribuye. Se ha suspendido su condición de ciudadano porque se ha desconocido su condición de hombre libre, competente respecto de lo que le interesa de manera inmediata.


Y esta situación se vio luego tremendamente agravada, hasta el grado de lo infame, a lo largo del siglo XX, con las terapias de shock que he descrito antes. Siempre entre sus primeras víctimas, junto a la sombría omnipresencia de los locos pobres, está la de los delincuentes que han sido declarados “enfermos”. De alguna manera, en realidad bastante vergonzosa, los pioneros de la investigación científica que desarrollaron estas terapias quizás sintieron algo de alivio ante el espectáculo de su evidente violencia considerando que no sólo estaban contribuyendo a resolver un problema médico sino también un problema social.


Hay críticos que han considerado que en realidad todo procedimiento médico tiene, en mayor o menor medida, este componente disciplinante.[101] Ante ellos se ha esgrimido una objeción relativamente trivial: el efecto disciplinante de administrar vacunas o curar enfermedades infecciosas… ha mejorado de manera sustantiva las condiciones de vida de los afectados.


Sugiero que lo que ocurre en ese maximalismo es que se confunde la extensión metafórica de la lógica médica a la desviación social con la medicina misma. Lo que sostengo es que se puede evitar este argumento excesivo limitando los conceptos de “salud”, “enfermedad”, “curación” y “terapia” al ámbito en que son objetivables, y negándonos a su uso en los ámbitos en que no lo son. O, también, estableciendo el rango de la incumbencia médica de manera paralela a la intensidad valórica que implica su intervención. Curar la lepra o el sarampión es una intervención frente a la cual no es difícil obtener un cierto consenso valórico. Tratar de “curar” la homosexualidad hoy en día, afortunadamente, implicaría una controversia mayor.


Puestas las cosas en estos términos es muy claro que el tipo de alteración que representan la homosexualidad, el alcoholismo o la locura respecto de la normalidad social no sólo se caracteriza por la dificultad para establecer sus causas, o por la fuerte interacción entre causas y efectos, o por la dificultad para establecer sus mecanismos orgánicos, que he mencionado, sino también porque representan verdaderos desafíos a la normalidad social en el plano directamente valórico y político. Es bastante obvio que lo que la sociedad buscará hacer frente a ellas, en primer término, es “normalizarlas”, en el sentido preciso de corregir la desviación, y eso es lo que consigna el término “disciplinamiento”: corregir la desviación restableciendo la disciplina.


Es bastante obvio hoy, gracias a los muchos críticos que lo han señalado, que la medicalización de estos comportamientos forma parte de estas políticas de corrección. Incluso, durante siglos, antes de la soterrada hipocresía de la psiquiatría farmacológica actual, prácticamente todos los psiquiatras esgrimían de manera consciente y explícita esta función disciplinante como parte esencial de su misión.


El disciplinar desviaciones a través de la retórica y los procedimientos de la medicina es algo que está ya, por sí mismo fuera de la medicina como tal. Por supuesto que esta construcción, “la medicina como tal”, está muy lejos de ser un mundo ideal de servicio y buenas intenciones. La industria médica, la medicalización de la vida desde intereses mercantiles o policiales, la interesada hegemonía del enfoque curativo por sobre el preventivo, y la extensión indiscriminada de la función paliativa por sobre el bienestar del paciente, son aspectos muy reales, y que tienen raíces muy profundas, en su práctica y en su historia.


Lo que no es cierto, sin embargo, es que su función y contenido estén totalizados, o puedan ser reducidas a estas dimensiones tan reales. La medicina, como la artesanía e ingeniería de promover la salud, curar la enfermedad y aliviar el dolor, ha prestado enormes servicios al bienestar humano, y con toda seguridad los seguirá ofreciendo. No es necesario, ni conveniente, entonces, deconstruir la la medicina en general cuando nuestro enemigo más prosaico es la medicalización. Es por eso que se puede afirmar, ahora en un ámbito específico, que la medicalización de la desviación no es un asunto médico, sino valórico y político.


2. Disciplinar desviaciones, validar diferencias

Para abarcar el caso de la locura, y su amplia repercusión sobre personas que son diagnosticadas en estados que presuntamente serían sus precursores, es necesario ir más allá de la idea de desviación, que representa una connotación valórica directa o definida, como es en el caso de la homosexualidad. Al parecer el debate valórico que es posible mantener con un homosexual no se podría mantener con un loco. Por supuesto esta apariencia se produce porque el estigma de la locura consiste, entre muchas otras cosas, en negarle al afectado la capacidad de sostener cualquier tipo de discusión racional. Esta es una de las razones por las que, “por su bien”, se lo considera como enfermo, como si la incapacidad de cambiar voluntariamente de estado fuese ya suficiente para caracterizar una enfermedad.


Propongo que, para abarcar esta dimensión de la racionalización médica de la locura, es bueno preguntarse, por ejemplo, bajo qué condiciones un ciego puede o debe ser considerado como un enfermo. La ceguera es claramente un estado de desviación respecto de la normalidad de la población humana, y es defendible que lo sea también respecto de los estándares orgánicos de su viabilidad biológica. Un ciego, como un loco, al parecer no puede cambiar por sí mismo su condición.


Al respecto, sostengo que es necesario distinguir dos situaciones: la ceguera como un estado permanente, “incurable” para un momento dado del desarrollo de la tecnología médica, y la ceguera que es curable con procedimientos accesibles y validables. Sostengo que sólo en este segundo caso se puede hablar realmente de enfermedad. Formulada como criterio general la diferencia es esta: sólo deberían considerarse como enfermedades aquellas alteraciones orgánicas que admiten modos validables de curación, tanto en el sentido directo de erradicar sus causas, como en el sentido débil de contener sus mecanismos de desarrollo; no deberíamos considerar como enfermedades aquellos estados que constituyen al sujeto como lo que es, sin que una intervención técnica pueda revertir esa situación.


Un ciego “incurable” no es un enfermo, y como tal la palabra misma “curación” no le es aplicable. En ese estado un ciego es, ni más ni menos, un ciego, y ahora ese término debe ser reconocido como parte de su identidad.


Sostengo que en esa misma condición, como estados constituyentes que tienen un poderoso contenido identitario, ni los sordos, ni los viejos, ni las personas con síndrome Down, ni los enfermos terminales son, propiamente enfermos. La categoría médica en cada uno de estos casos sólo estigmatiza algo que no es sino una diferencia. La medicalización no hace sino reprimir hasta anular el derecho de esas personas a ejercer esa diferencia como propia y válida, como elemento legítimo de su identidad, sin prestar a cambio más que paliativos marginales, más bien dirigidos al entorno que a ellos mismos, es decir, paliativos que tienen más bien un carácter disciplinante que propiamente médico.


Hay un consenso valórico relativamente amplio en los sectores modernos de la sociedad global actual en torno a que la pedofilia, vaya o no acompañada de violencia, es un delito. Otras sociedades, en cambio, la consideraron legítima. Ese es un asunto valórico, no médico. Hay un consenso bastante amplio también, salvo en los sectores integristas, católicos, judíos o islamitas, en torno a que la homosexualidad es una opción legítima. Ese es un asunto valórico, no médico. El paso siguiente es alcanzar un consenso en torno a que las situaciones constituyentes, como la discapacidad física, el síndrome de Down, o la vejez, que nadie ve como problemas valóricos, no son, tampoco, problemas médicos, sino más bien identitarios, con las consiguientes consecuencias sociales.


Entre el primer tipo de situaciones (disputas valóricas), y el segundo (diferencias constituyentes), está la locura. Desde ninguno de estos ámbitos debería ser considerada como un problema médico. La locura debería ser considerada a la vez como un problema valórico, como un desafío a la “cordura” imperante y a lo que ella representa para la estabilidad social, y como una diferencia constituyente, es decir, una diferencia que escapa a la voluntad inmediata del afectado, por lo que resulta ser una condición o estado “objetivo” en su subjetividad, más que una opción libre, producto del arbitrio individual.


Es importante notar, sobre todo porque son muchísimos más los que son llamados “locos” que los locos propiamente tales, que el que la locura sea una condición constituyente NO implica que sea una condición permanente, o irreversible. Muchas personas han “vuelto” de la locura, incluso de sus formas más agudas. El que no exista ni el más mínimo indicio de una correlación estable entre los procedimientos que se les aplicaron y esas “vueltas” muestra que estas personas pudieron cambiar de condición a pesar de la intervención psiquiátrica, y muy poco probablemente gracias a ella.


Si reconocemos que se puede “volver” de la locura se abren muchas vías de reflexión que la estigmatización psiquiátrica ha tenido simplemente negadas. En primer lugar el que probablemente la locura como tal sea más bien un estado de la subjetividad, de duración muy variable, más que una condición permanente, como puede serlo la ceguera. Cuestión mucho más probable, desde luego, para los muchísimos casos que son llamados locura más bien por razones contextuales que por características intrínsecas. En segundo lugar la posibilidad de pensarla como una condición que, siendo a la vez eventualmente temporal y constituyente, tenga que ser abordada en el contexto global de su desarrollo y variabilidad, para la cual los que quieran aceptarla como válida deben estar preparados. Cuestión particularmente importante cuando se trata de las supuestas connotaciones destructivas o autodestructivas que el estigma les atribuye.


Por otra parte, tal como se admite que la ceguera puede ser una condición constituyente y propia, “intrínseca”, que representa una discapacidad parcial en el plano físico, debería admitirse que la locura, constituyente y propia, representa una discapacidad parcial en el plano subjetivo. “Parcial” es aquí un término clave, tanto en el ámbito político como en el de las relaciones inmediatas. Las discapacidades físicas no tienen porqué ser totales, y cuando actúan como un elemento de identidad casi nunca lo son. Cierran algunas puertas y abren otras. De la misma manera, en la enorme mayoría de los casos, la locura representa discapacidades subjetivas sólo parciales. Hacen muy difíciles ciertas capacidades subjetivas, perfectamente pueden desarrollar o potenciar otras. Y reconocer esto es el primer paso para el desarrollo de la competencia de los afectados en el manejo autónomo de lo que les concierne de manera inmediata, para la conducción, solos o en comunidad, de sus propios asuntos.


Del mismo modo, el término “contextual” es clave en estas políticas de validación de la diferencia. En primer lugar porque señala que muchas situaciones que distinguimos como “locura” no son sino parte de la enorme variabilidad de las reacciones que los seres humanos perfectamente “normales” pueden presentar cuando son sometidos a situaciones extremas o excepcionales. Y también porque permite entender que el contenido determinado de la mayor parte de los delirios, las actitudes y las reacciones características de la locura tienen su origen en el contexto del afectado, aunque su condición como tal, en sentido estructural, tenga un origen más profundo, y menos comprensible para los “normales”.


El efecto de este reconocimiento del carácter contextual de los cuadros mismos, o de sus contenidos inmediatos, es importante porque produce una baja general en la tendencia a la estigmatización producida por el propio temor de los observadores ante la “extrañeza” de los comportamientos de los afectados, y abre el camino para su comprensión y validación. En realidad los observadores requieren siempre, abocados al desafío existencial que implica la locura, una dosis de racionalización que les muestre una cierta “cordura de la locura” desde la cual establecer su relación. Ante una diferencia que puede tener rasgos sorprendentes y atemorizantes, esta “comprensión” es una justa retribución al observador, una concesión que facilita su disposición al diálogo y la aceptación y, como consecuencia, la del mismo afectado. Por supuesto, estas dos posiciones coinciden muchas veces en una misma persona. La situación más común es que el propio afectado se asuste y asombre ante sus propias experiencias y reacciones. Sobre todo en estos casos la apelación a una cierta “cordura de la locura” es un elemento de contención y validación que tiene poderosos efectos.


Cuando se reconocen estas características, que la locura es una condición temporal, que muchas veces se trata de estados que tienen un origen contextual inmediato, que la inhabilitación cognitiva y social que puede producir casi nunca es total, que no sólo cierra sino que también abre posibilidades, que a pesar de su intensidad el afectado siempre conserva un espacio desde el que puede hacerse competente en el manejo de sus propios asuntos, que casi siempre se pueden encontrar elementos que permitan “entender” los contenidos y las formas de los delirios, las reacciones y las actitudes que conlleva, entonces surge la tentación de considerar que la “locura como tal” no existe, y que se trata siempre sólo de reacciones contextuales, que pueden ser superadas.


Lo que es innegable es que la locura representa una poderosa condición identitaria. Se es “loco” de una manera mucho más intensa que la forma en que se puede ser chileno, médico, o rebelde. Y esa intensidad identitaria acentúa su carácter de desafío valórico de hecho (buscado o no) respecto de la cordura y la normalidad imperantes. Es justamente esto, que aparta notoriamente al afectado de los patrones de comportamiento imperante, lo que apunta a hacia un carácter intrínseco de ciertos casos, que pueden ser considerados como “la locura como tal”, de las situaciones más leves o más breves a las que se les puede atribuir un origen contextual más directo, y que son llamadas “locura” sólo como efecto de un proceso de estigmatización.


Pero, nuevamente en contra de la tendencia dicotómica de las mentalidades ilustradas, hay que advertir que “intrínseco” no tiene porqué significar “orgánico” o, como se suele decir “endógeno”. El supuesto aquí es el reduccionismo biológico según la cual sólo lo corporal sería realmente intrínseco o, también, sólo el cuerpo sería algo realmente propio. No tenemos porqué compartir ese supuesto. Desde una perspectiva humanista es en realidad la subjetividad la que constituye una identidad, y la que puede ser llamada en sentido auténtico “propia”. Las características corporales, como la ceguera, pueden ser elementos identitarios, incluso constituyentes, pero no son la identidad como tal.


De manera inversa, la subjetividad por sí misma puede presentar características radicalmente distintas a las que se consideran normales, sin que haya necesariamente una base orgánica que las origine. También en este aspecto opera un supuesto, inverso y complementario del reduccionismo biológico. Impera la idea de que el sujeto sólo es tal en tanto sujeto racional y, aún más, sólo bajo la forma de la racionalidad que es aceptable para el racionalismo moderno. Cualquier alteración de esa racionalidad no podría provenir de ella misma, tendría que tener una base orgánica.[102] Más radicalmente, se trata del supuesto, mucho más profundo, de que la razón misma sólo puede ser una, sin que haya en ella diferencias cualitativas. La razón misma no podría “enfermarse”, lo que se “enferma” sería siempre el cuerpo. Tampoco tenemos porqué estar de acuerdo con ese supuesto.


Pero es posible también el reduccionismo inverso al biológico, el de carácter social. En este caso se trata de que el sujeto está completamente determinado, atravesado, por la influencia social, sin que haya un espacio propio en que su subjetividad pueda generar, por sí misma, una diferencia cualitativa. Nuevamente una dicotomía: no tenemos porqué aceptar que la constitución eminentemente transindividual de la subjetividad personal impida el desarrollo en ella de diferencias que se sean propias y exclusivas. Y, más profundamente, que la razón misma adquiera en ella una forma cualitativamente distinta de la predominante.


“Endógeno” o “intrínseco” son términos que no tienen porqué apuntar a algo que esté “más allá” de la subjetividad como tal, ni en el plano orgánico, ni en el plano de las determinaciones sociales. En ella, y desde ella misma, puede haber diferencias cualitativas, radicales, constituyentes. Y es a esas diferencias a las que se puede llamar “la locura como tal”.


Sostengo que es extraordinariamente importante, en términos teóricos y políticos, mantener la idea de una locura intrínseca, profunda, no sólo contextual, que constituye una condición que no es reductible al origen contextual de sus síntomas.


Por un lado, parece poco viable, tanto práctica como teóricamente, sostener que todos los estados de comportamiento alterados sean explicables, o reductibles, a un origen únicamente contextual. Por otro lado, no parece ser la mejor política de reconocimiento una que tenga como premisa a priori el que los locos deben “superar” su situación, deben “mejorarse” de su locura en algún momento.


Lo que una política radical, animada de sentimiento crítico y pluralista, debería perseguir es que los afectados aprendan a relacionarse con sus estados subjetivos, que ellos mismos los acepten y puedan mantenerlos dentro de lo que una convivencia social pluralista pueda contener. Sólo entonces, y desde la voluntad propia y soberana del afectado, se puede desarrollar como tarea común algún intento de “superación”.


Es útil, en este sentido, recordar la tentación paternalista con que se suele abordar la homosexualidad. Se logra avanzar hasta su reconocimiento y la aceptación de que no implica ni un daño ni un trastorno, se la llega a considerar incluso como válida y viable. Pero se mantiene la esperanza de que, “comprendiendo y siendo comprendidos” en su situación, las “víctimas”, los que la “sufren”, puedan llegar a “superarla”. Cuando el pensamiento crítico llega a aceptar la homosexualidad como una opción, vital, valórica, legítima, plenamente válida, no se espera, en ningún sentido, que opere como una cierta meta de la convivencia con las personas homosexuales el que lleguen a superarla. En eso consiste que haya sido reconocida como una opción.


Pero justamente esta es una de las primeras cosas que la estigmatización niega a la locura: la posibilidad de optar. Sostengo, en cambio que, bajo las condiciones que he enumerado, no hay razones, ni teóricas ni prácticas, para negar la posibilidad de que alguien que haya logrado relacionarse de manera “normal” con su locura pueda, también, considerarla como una opción, y construir su identidad desde ella. La locura más intrínseca y profunda, aquella sobre la cual la voluntad parece no poder actuar, puede ser una opción. Toda la rareza eventual de esta afirmación proviene de una tautología trivial: considerar como ejercicio adecuado de la voluntad al que está comandado desde la “normalidad”. Afirmar que puede haber, y de hecho hay, una voluntad propia y soberana comandada desde la locura misma, y reconocerla como legítima y válida, es precisamente el núcleo de su reconocimiento global.


3. Terapias e intervención social

El oficio médico ha creado un campo semántico coherente para referirse a sus principios y modos de acción, y si queremos buscar alternativas en el ámbito de las alteraciones del comportamiento, es políticamente importante distinguirlo como tal y promover su uso de manera específica, que muestren la diferencia teórica y práctica con que queremos abordarlas.


Por cierto no es para nada inocente llamar “enfermo” a un loco, o entender la meta del abordaje de su situación como “curación”. De la misma manera, también es importante distinguir en el abordaje mismo el tipo de acciones que pueden llamarse “terapias” de las que deberían considerarse de manera específica, y relativamente técnica, como “intervenciones sociales”. Es necesario mantener la referencia médica en el término “terapia”, y en su sinónimo inmediato, la intervención que se puede llamar “clínica”. Sin aceptar, nuevamente, ahora en este otro ámbito de la terapia lingüística a que nos somete la hegemonía médica, su extensión metafórica hacia las situaciones que optamos por considerar como estados legítimos y válidos de la subjetividad humana.


Es necesario entender la terapia, en cualquiera de las formas en que sea apropiado usar esa palabra, como una relación vertical, entre alguien que proclama su condición de experto y alguien que puede ser diagnosticado como enfermo en virtud de una caracterización objetiva y objetivable de enfermedad. La situación terapéutica supone que el enfermo no puede contener o erradicar por sí mismo la condición que lo afecta y, desde luego, que es objetivamente deseable que la supere. Es esa inhabilidad la que hace necesario que recurra a un experto, cuya tarea no tendría por qué ser empoderarlo, sino que consiste de manera prioritaria en buscar la curación o, a lo sumo, el paliativo correspondiente.


Concordante con esto, las acciones en que el mismo oficio médico se dedica a empoderar a eventuales víctimas de un mal determinado a través de medidas preventivas, en el plano educativo, a través de intervenciones globales como las medidas de higiene, o locales, como las vacunas son, justamente, aquellas que NO se llaman “terapéuticas”.


La verticalidad de la acción terapéutica deriva de la asimetría de hecho, buscada o no, del saber entre experto y lego. Una asimetría en que el experto no sólo posee las claves de los fundamentos y los lineamientos teóricos que dan cuenta de la situación, sino que posee también el saber y las destrezas adecuadas de las técnicas que corresponde usar. Por supuesto, como en toda ingeniería, estas técnicas están establecidas de manera previa y general, y se aplican de manera regular, sólo con correcciones locales para casos extremos.


Si consideramos el origen inmediato y la historia de la demanda de terapia psiquiátrica tal como el gremio la ha educado tradicionalmente en el público, es posible entender porqué, a pesar del carácter eminentemente social de los problemas con que se enfrenta su acción terapéutica es, sin embargo, paradójicamente individual, e incluso individualista. En psicología y en psiquiatría se ha llegado a llamar “clínica” a un tipo de intervención que supone una relación interpersonal de individuo a individuo. Una intervención asimétrica en la distribución del saber y, amparada en ello, asimétrica de hecho en la distribución del poder. Es en este espacio clínico donde ocurre la acción que puede llamarse terapéutica.


El significado real de esta acción, sin embargo, precisamente por esta asimetría asumida entre el lugar del saber y el poder y el otro, el del paciente, es que a pesar de su énfasis en el tratamiento individual tiene un efecto homogeneizador.


En buenas cuentas, el significado de toda acción terapéutica en el ámbito de la subjetividad no es sino, como he argumentado antes, el de una acción disciplinante, que encubre su significado valórico y político en la aparente asepsia del saber médico. Esto conduce a que las metas de la acción terapéutica sean, en general, exteriores a los afectados mismos, relativamente estándar, y pensadas más bien en función de su entorno que de sus posibilidades vitales propias y autónomas.


Si hay enfermedad, hay que curarla. Si hay desviación hay que corregirla. Si hay una diferencia que se considera extrema, hay que aplanarla. Es a ese tipo de intervenciones a las que se puede llamar terapia, o intervención clínica. Una lógica que no debería representar grandes problemas en respecto de realidades orgánicas, pero que tiene un claro contenido político cuando se refiere a la subjetividad.


Muy distintos son, en cambio, los lineamientos de lo que llamaré de manera específica “intervención social”. Reconocer y validar diferencias requiere un tipo de relación eminentemente horizontal, en que la clave es más bien compartir el saber que monopolizarlo, desarrollar técnicas de manera consensual, más que aplicar técnicas generales y preestablecidas. Técnicas construidas y pensadas más bien en el caso a caso que en criterios previos de normalidad. En que las metas son propias, establecidas en consenso, trabajadas en comunidad.


La intervención social sobre las alteraciones del comportamiento debe ser desarrollada en comunidad, pero, justamente por la política de validación de las diferencias que la preside, tiene un efecto de desarrollo individual. Su habilidad central es ser capaz de trabajar a la vez lo común y lo diferente.


Este desarrollo individual inserto de manera plena en un trabajo en comunidad es posible si se adopta una política de radical democratización del saber y de la técnica. La consecuencia inmediata de ello es la reducción de la sobresaliente experticia de los “expertos” a través de un desarrollo permanente de la experticia de los propios usuarios en todo el rango de saberes relacionados con aquello que los afecta. No hay en una política como esta saberes particularmente difíciles, cuya lógica, o cuyo lenguaje técnico no pueda ser abordado y dominado por personas comunes. Y el fundamento de esta democratización radical no es sino el hecho de que no hay, en general, ningún saber ni dominio técnico que exceda esas condiciones, en ningún ámbito de la experiencia humana. La “dificultad” del saber, la extrema “pericia” de las destrezas, invocadas por médicos, ingenieros, economistas y psiquiatras, no es sino un recurso de legitimación burocrática justamente del poder del que estos y otros “profesionales del saber” usufructúan con ventaja.[103]


El disciplinamiento es necesario porque hay desviación, para superar las diferencias. La intervención es necesaria porque hay diferencias, para reconocerlas y validarlas. Ambos promueven la integración de un ser humano que sufre a un contexto social que lo acoja. Pero mientras el disciplinamiento busca una integración homogeneizadora, con contenidos exteriores al afectado, la intervención social busca una integración diferenciadora, en que es central el desarrollo propio y la negociación en términos igualitarios de consensos y legitimidades.


Una integración centrada en un sujeto situado socialmente, desarrollada en comunidad, en torno a un hacer significativo, que promueve el empoderamiento, que reconoce a los usuarios como ciudadanos potencialmente competentes en lo que les interesa y afecta. Una integración en que el psiquiatra de orientación social procura igualarse a los demás profesionales que intervienen en la comunidad, y a los usuarios mismos, compartiendo el saber, compartiendo las experiencias, viviendo con ellos como uno más, también susceptible a las experiencias que los han convocado.


Un profesional de la psiquiatría que no está ya al servicio de la normalidad médica o social, sino que ejerce como un polo crítico, comprometido e implicado en los asuntos plenamente humanos en los que se inserta. Un crítico del autoritarismo médico, de la estigmatización psiquiátrica, de la medicalización mercantil, del elitismo del saber burocrático. Pero también, y en virtud de eso mismo, un crítico de los poderes sociales que promueven esos males, crítico de la normalidad hegemónica, un crítico capaz de ver más allá de la especialización estúpida y la mitología interesada de la experticia.


b. Operaciones ideológicas, derechos, iniciativas

1. Ideología y medicalización del sufrimiento

En las luchas políticas de la época moderna, siempre se ha supuesto la existencia de sujetos sociales de algún modo disponibles en virtud de sus contextos y necesidades, pero sobre los cuales había que hacer una tarea permanente de educación (ilustración) para ganar y desarrollar sus conciencias. Los sectores radicales, profundos herederos de la de filosofía y política de la Ilustración, siempre suponían la conciencia como una capacidad cognitiva, algo así como un depósito y un mecanismo de cálculo, al que bastaba con entregar los contenidos adecuados para obtener las decisiones correctas.


Por cierto, paralelamente, todos los movimientos de oposición radical a la dominación imperante han contado con las capacidades emotivas, y con la voluntad de acción, que consideraron determinada de manera simple por el contexto de explotación y sufrimiento, pero de las que sólo se podían obtener disposiciones a la acción políticamente útiles si se les había educado en la conciencia correcta sobre su situación.


En el escenario clásico, y bajo estos supuesto, una parte muy importante de la lucha política consistía entonces en una “lucha por la conciencia” (digámoslo… de las masas). Las herramientas básicas eran la educación y la propaganda. Los medios didácticos más apropiados eran la lectura, la discusión en grupos y, por supuesto, el ejemplo de lucha. En algún lugar de su obra, que no quiero recordar, Lenin decía, con evidente entusiasmo: “con la mente fría y el corazón ardiendo”.


Los marxistas y anarquistas que recurrieron al psicoanálisis como instrumento de crítica radical tuvieron una visión sustancialmente más compleja del orden y la profundidad de esa lucha. Aprendieron que la conciencia, explícita, sabida, está a su vez arraigada en todo un ámbito mental más profundo y complejo, que opera a sus espaldas, cuyo origen y desarrollo está ligado a la experiencia de socialización primaria en la estructura familiar moderna, y se expresa muy directamente en la manera de experimentar la sexualidad y, en general, todos los modos del placer. Para pensadores y activistas como, Wilhelm Reich, esto implicaba la necesidad de arraigar también la lucha por la conciencia en ese mundo que operaba como su sustento, cuestión que sólo podía lograrse a través de un radical compromiso personal y el involucramiento en prácticas de vida nueva, en comunidad, bastante distintas a los que eran habituales en las izquierdas de la primera mitad del siglo XX.


En los años 60, muchos movimientos radicales, incluso entre los marxistas, entendieron y ejercieron esta necesidad de ligar el compromiso, por decirlo de alguna forma, “intelectual”, con un compromiso vital, que atravesara todas las dimensiones de la existencia personal y social de los combatientes. A pesar de los muchos ejemplos, sobre todo en el campo de la ultraizquierda, no fueron los marxistas, ni las otras formas de la izquierda clásica los que mejor comprendieron y experimentaron estas nuevas formas de hacer política. El feminismo, el movimiento gay, algunos sectores ecologistas, profundizaron mejor, y fueron más consistentes. Y, entre esos muchos colectivos, que abrieron nuevas dimensiones para la oposición radical al sistema, por supuesto, estuvieron los movimientos de sobrevivientes, o de usuarios, de la psiquiatría.


Se podría decir que la gran tarea de la oposición antisistémica desde entonces ha tenido también esta profunda dimensión: ha sido una “lucha por el inconsciente” o, de manera más precisa, una lucha por las bases psíquicas desde las que es construida la conciencia. A diferencia de la confianza ilustrada de las izquierdas clásicas ya no se puede dirigir la educación para la lucha sólo a la conciencia, y a sus componentes y capacidades cognitivas. Se trata ahora, no sólo de un “además” sino, en un sentido imperioso, de un paso estrictamente previo y, desde allí, de un esfuerzo permanente.


Pero la necesidad y el sentido de esta nueva dimensión no provienen en realidad de la conciencia preclara y la consecuencia en la lucha de combatientes ejemplares. De un modo mucho más dramático, viene exigida más bien por el profundo cambio en los modos de socialización primaria que eran justamente los que producían ese ámbito preconsciente e inconsciente en el seno de la familia nuclear, patriarcal y monogámica característica de la modernidad.


He comentado este proceso, y desarrollado una crítica a sus consecuencias en un texto anterior, aquí insistiré sólo de una manera muy sumaria.[104] El aparato psíquico del sujeto clásico de la modernidad, formado en esa verdadera fábrica micro social que es la familia, poseyó una estructura interna compleja, y tremendamente contradictoria y conflictiva. Quizás por primera vez en la historia humana, las instancias psíquicas consciente, preconsciente e inconsciente, se distinguieron claramente como efecto, y a la vez como potenciadoras, de la autonomía personal. El sentimiento de individualidad, de soberanía personal, se construyó arraigándose profundamente en la contradicción entre las pulsiones inconscientes y la conciencia de sí explícita de la consciencia. La esfera preconsciente se convirtió en un campo de lucha, individuo por individuo, de la tensión entre soberanía personal e interés social. El disciplinamiento clásico consistió, desde este punto de vista subjetivo, en fundar la obediencia sobre los mecanismos de la culpa y la autoagresión psicológica preconsciente, en beneficio, netamente, del orden social.


Esto generó un aparato psíquico atravesado de manera interna y constitutiva por los mecanismos de la obediencia pero, a la vez, y como reverso de ellos, por una intensa y soterrada capacidad de rebeldía. Una capacidad que está en el origen de la creatividad de las capas medias, que la sublimaron de manera productiva, y también de la capacidad de lucha de los movimientos sociales, que pudieron encausarla hacia la verdadera fuente de sus males.


No se trata aquí de ofrecer una interpretación psicologista de la rebeldía para la que, desde luego, no han faltado en absoluto razones perfectamente objetivas. Se trata de entender que, aun bajo esas condiciones objetivas, el aparato mental del sujeto moderno poseía unas ciertas bases psíquicas que hacían posible su expresión radical, tanto entre los individuos como en el plano de los colectivos sociales. No sólo la obediencia, también la posibilidad de la rebeldía, requieren de ciertas condiciones internas para ser alcanzadas. Y son esas condiciones internas las que han sido alteradas profundamente a lo largo de la segunda mitad del siglo XX. Lo que ha ocurrido puede ser descrito exactamente en esos términos: un proceso de destrucción progresiva de las bases psíquicas que hacían posible la rebeldía.


La consecuencia política más inmediata de esto es que, a diferencia de lo que esperaban las izquierdas clásicas, y que por lo demás en su época era razonable esperar, ya no se tiene un sujeto social disponible para la oposición radical, al que eventualmente sólo le falten niveles de educación convencional para ponerlo en marcha. Ahora el deber político más inmediato no es otro, ni más ni menos, que el de construir ese sujeto, el de hacerlo posible, desde la condición imperante de una subjetividad que es, desde su fundamento, progresivamente ganada para el sistema de dominación.


Las respuestas a esta situación no son difíciles de formular y, en principio, no tiene nada de imposibles. Lo que sostengo no es otra clase de “fin de la historia”, ahora en el ámbito de la subjetividad. La libertad humana, y sus pasiones, son mucho más complejas de lo que cualquier sistema de dominación pueda llegar a conjurar. Lo que sostengo es que hay un tipo de batalla nueva que dar, y que es imperiosamente previa a los modos de lucha imaginados por las izquierdas clásicas.


Como se trata de una pelea por las bases psíquicas que hacen posible una consciencia u otra, como esa pelea ya ha empezado hace bastante tiempo por parte de las clases dominantes, y constituye su práctica habitual, de hecho, lo sepan o no, es esencial entender los modos en que somos actualmente dominados, y los modos correspondientes en que se puede resistir e impugnar. Lo que me importa en este texto no son tanto las razones y los caminos objetivos, que son por cierto absolutamente necesarios. Me importa más el plano estrictamente subjetivo, que opera como condición de su posibilidad.


Por supuesto, no es ni un secreto ni una novedad el que este tipo de lucha tenga que darse a la vez en todos los planos de la subjetividad. El plano consciente es plenamente susceptible de intervenciones educativas convencionales. En el plano preconsciente sólo el hábito, forjado en una práctica de lucha constantemente revisada puede cumplir la misma función. El ámbito de lo inconsciente, que para un psicoanálisis orientado hacia la crítica social no es ni oscuro ni misterioso, resulta intervenido cuando se establece un modo de vida distinto.


Pero el poder también da su batalla en cada uno de estos espacios. Muchas veces lo hace con una consciencia explícita, fijándose objetivos directamente políticos. Pero también sus objetivos mercantiles tienen el efecto político de reforzar la dominación, sobre todo porque ya desde hace mucho tiempo las formas de comercialización modernas se empeñan más en vender “modos de vida” que productos inmediatos, que obtengan su valor sólo de su utilidad. La orientación de la propaganda mercantil hacia el consumo refuerza el sistema que la sustenta, y este sistema, en sus espacios de dominación política, hace todo lo posible por fomentarla.


Se puede hablar en un sentido muy directo de mensajes desde los poderes dominantes. El grado de su explicitación ha alcanzado, sobre todo desde la “alegría” impostada y oscura de los años 80 y 90, los niveles simples y burdos del cinismo. El notable economista de izquierda Franz Hinkelammert comentaba en una conferencia, “hemos pasado de un capitalismo hipócrita a un capitalismo cínico: antes los capitalistas revestían su discurso de razones aparentemente humanitaria, ´damos trabajo´, ‘buscamos la prosperidad de todos’, ahora, en cambio, es común escucharlos decir ‘es cierto que explotamos, ¿y qué?’, ‘es cierto que buscamos la ganancia fácil, ¿y qué?’”.


Los discursos que atraviesan el modo de vida que se fomenta, que se ha llegado a llamar habitualmente, a veces también de manera cínica, “consumismo”, han llegado a ser casi transparente, y se prestan con facilidad para su explicitación. En la medida en que se presentan como verdaderos, en que se revisten del aura de la obviedad (o dicen tener respaldo científico), y en cambio no hacen otra cosa que vehiculizar y encubrir la dominación y las contradicciones que provoca, pueden ser llamados “ideológicos”. A sus construcciones particulares las llamaré, de manera directa, “ideologismos”. Me importa en especial el modo en que son experimentados en las vivencias cotidianas, que es el espacio más inmediato de las nuevas formas de opresión. Justamente ese espacio en que la rebeldía deviene de pronto, “misteriosamente”, alteración mental.


La primera forma en que la dominación enfrenta al ciudadano agobiado por la sobreexplotación o el desempleo crónico, que ha empezado a quejarse sistemáticamente de sus condiciones de vida, es la individualización. Todos los mensajes desde su entorno, sus jefes, los profesores y orientadores, la propaganda comercial, sus propios pares, contribuyen a aislarlo con una consigna central “el problema es suyo”. No es correcto echar la culpa a los demás, al mundo, a los ricos, a los políticos, a entidades vagas como “las clases dominantes”, a presuntas conjuras universales y encubiertas, como las de tal o cual interés comercial o político. Otros en sus mismas condiciones han salido adelante y se quejan menos. Otros han tenido que emprender sacrificios aún mayores que los suyos y han superado sus dificultades. “Es usted el que se queja, el que tiene problemas, el que no sale adelante”.


La segunda operación general es la psicologización. “El problema no es tanto la realidad ante la que se encuentra, sino el modo en que la enfrenta”. El verdadero problema estaría en la incapacidad para abordar los problemas. Sería un asunto de actitud, consistiría en “la forma de pararse frente a las dificultades”. Se podría superar cualquier dificultad si se tiene la disposición, el ánimo, la actitud adecuada. No tenerlas, no ser capaz de asumirlas, es un problema, suyo, más bien de tipo psicológico que puramente objetivo. Otros han sido capaces de enfrentar de manera adecuada esos mismos problemas.


Quizás la metáfora más socorrida en esta operación de psicologización sea “no mirar sólo la parte vacía del vaso”. Una verdadera joya discursiva, que parece caer desde el Olimpo de la obviedad hasta las manifiestas incapacidades del ciudadano quejumbroso, y sobre la que vale la pena detenerse, por lo representativa que resulta… y porque es repetida ad nauseam. Quizás, si todos los “vasos” estuviesen llenos hasta el mismo nivel, la obstinación en fijarse sólo en la parte vacía podría diagnosticarse como indicio de un cuadro psicológico. Lo que ocurre de manera flagrante, en cambio, es que no todos rebosan hasta el mismo nivel. Y lo que ocurre, de manera consistente, es que los que tienen el vaso más lleno tienden a fijarse en esa parte llena y, de manera perfectamente lógica y correspondiente, los que ven que su vaso está casi vacío reclaman y se fijan en esa parte vacía. La falacia trivial de esta consigna es que en ella se iguala algo manifiestamente desigual, y se obtienen conclusiones comunes para casos que justamente no tienen lo que interesa en común.


No se puede, sin embargo, hacer retroceder la sonrisa de un orientador de colegio, o un psicólogo, o un experto en “coaching”, con una reflexión tan trivialmente racional. No hay que olvidar que “el problema (el suyo) es psicológico”, y que “de todas maneras, todos los vasos, tienen algo de llenos”. Desde la trivialidad del muy tradicional “peor es nada” se nos pide “adoptar una actitud positiva”. Es demasiado evidente que la mayoría de las personas no logran tener una paciencia semejante. Ni siquiera, en sus propias vidas, pero en la penumbra conveniente de su privacidad, esos mismos orientadores, psicólogos o expertos en “coaching”.


Pero entonces lo que se hace es ir más allá. Si usted es sistemáticamente incapaz de asumir su agobio con una actitud adecuada, entonces su problema debe ser “endógeno”, en el sentido, que se da por obvio, de que tiene una raíz orgánica. A su vez, esta operación de naturalización se presenta como obvia porque estaría fundada en otra obviedad: estaría demostrado científicamente.


Tres ideologismos, individualización, psicologización, naturalización, progresivos y coherentes, que tiene el efecto de inhabilitar al ciudadano para la solución autónoma y soberana de los problemas que lo aquejan. De ser una víctima de un sistema inhumano de vida ha pasado a ser un enfermo, alguien que sólo puede ser auxiliado con ayuda de un experto. Tres ideologismos que convierten problemas sociales e históricos, que afectan a pueblos y grupos sociales, en problemas médicos, susceptibles de tratamiento individual. La medicalización del sufrimiento cotidiano no tiene sólo una raíz mercantil, en los intereses de las compañías farmacéuticas, sino que cumple un definido papel ideológico, que corroe las defensas psíquicas del sujeto moderno, que han sido debilitadas ya por los nuevos modos de vida.


No son, desde luego, los médicos, ni los psiquiatras, ni los expertos en coaching, los que deben marcar el carácter de la resistencia y la impugnación del ciudadano común contra tales ideologismos. Por sí mismo pero, por sobre todo, actuando de manera solidaria, en comunidad, frente a la individualización la respuesta más eficaz es socializarlos. Compartir los problemas, conversarlos con los demás. La experiencia universal, inmediata, es que rápidamente se constata que todos tienen problemas, y sienten agobios del mismo tipo. No es un misterio, las formas de opresión son rutinariamente estándar. La impresión de que “a nadie le pasa esto que a mí me pasa” no se debe sino, justamente, a que el discurso dominante nos mantiene aislados.


Por supuesto conversar, compartir, es un arte y una disciplina. Hay que entrenar sistemáticamente la capacidad de escuchar. Hay que resistir la tentación de presentar lo propio como exclusivo: “sólo a mí me pasa de esta forma”, “lo que pasa es que soy más sensible que los demás”. Hay que conceder el derecho del otro de ser atendido, y desde él reclamar el propio. ¿No es esto el contenido esencial de lo que ha sido siempre el arte de conversar? Pues bien, téngase presente que hoy, mucho más que en cualquier época anterior, se trata de un arte que tiene una importancia política inmediata. Sin él lisa y llanamente no llegará a haber sujeto revolucionario.


El segundo paso, de manera correspondiente, es objetivar. Para poder entender la subjetividad en su sufrimiento real es necesario objetivar los problemas que lo originan. Nadie sufre solo y por sí mismo. Todo sufrimiento subjetivo tiene una raíz objetiva. Y se puede llegar a esas raíces, que no son nada de misteriosas, conversando. La opresión machista no es una condena, ni es la respuesta a una actitud poco adecuada de la mujer. La opresión en el trabajo no es un destino que haya que asumir simplemente porque el mundo es como es. La discriminación, el mal trato, la explotación, la pobreza, las esperanzas defraudadas, son males sociales fácilmente identificables. Hay una racionalidad objetiva que preside nuestro sufrimiento cotidiano, y es importante señalarla como tal. No somos responsables de manera personal de nuestros sufrimientos, aunque sí somos responsables de no organizarnos para superarlos. Para construir un modo de vida distinto.


El tercer paso es historizar. Situar social e históricamente la raíz de nuestros problemas. Hacerlo en una conversación en que el resultado no sea una simple constatación, sino un marco para la acción. La objetividad que está en la raíz del sufrimiento cotidiano nos excede como individuos, pero nunca nos excede como sujetos sociales. Tiene una historia, se pueden describir de manera clara y distinta su contexto, y sus posibilidades.


2. Compartir experiencias, reclamar derechos, constituir una política

Comprender una situación política realmente no es lo mismo que entenderla de manera académica. No es sólo entender teóricamente en qué consiste. Aunque esta sea una base necesaria la comprensión propiamente política sólo puede hacerse desde una experiencia, en la medida en que nos involucramos críticamente en ella. Comprender es vislumbrar perspectivas, proponer, trazar caminos de acción.


Las consecuencias mercantiles y políticas de la industria médica, en particular cuando se trata de la medicalización del sufrimiento subjetivo, se hacen sentir muy directa y gravemente en decenas, y quizás cientos, de millones de personas de todos los sectores sociales, en todo el mundo. No es un asunto menor, ni por su dimensión ni por el lugar clave que ocupa en los mecanismos de opresión. Tampoco es un asunto fácil de abordar con los afectados mismos, cuyo principal problema es que ven su situación casi completamente a través de los espejismos que les proporciona la industria. Es por eso que la primera gran tarea es que comprender el problema sea a la vez la experiencia de explicarlo, de conversarlo con muchas personas más.


La conversación, el compartir, es el primer paso de la constitución de una política de acción. Sobre todo en este campo. Se trata de una necesidad en primer término defensiva. Ni nosotros mismos, ni nuestros hijos, podremos salir a una situación de mayor libertad, podremos recuperar algo de nuestra soberanía como sujetos, si intentamos dar una lucha obstinada y solitaria contra lo que en la vida cotidiana es presentado con tanta impresión de evidencia.


Quizás el primer espacio en que esto debería ocurrir es la escuela. Los niños y los jóvenes son hoy en día masivamente etiquetados con rótulos psiquiátricos incluso a partir de las alteraciones más comunes, como la proyección de la crisis de sus familias en sus conductas, como sus pobres niveles de rendimiento bajo los estándares competitivos. La crisis de la propia institución escolar, su notoria inadecuación con las necesidades de un sistema productivo que ha cambiado de manera revolucionaria, es descargada por orientadores, maestros y psicólogos en los niños y jóvenes, obligándolos a entrar en las dramáticas rutinas de la dependencia inducida por los tratamientos farmacológicos.


Las reuniones de padres, formales e informales, deberían ser el primer lugar en que socializar los aparentes problemas “psiquiátricos” de nuestros hijos, las dramáticas derivas psicológicas y físicas de los tratamientos que se les administran, las practicas de etiquetamiento a que son sometidos. Desde allí, sólo un leve paso de sinceridad más bastaría para plantear en común nuestros propios problemas. Nuestras propias dependencias de tranquilizantes, euforizantes, ansiolíticos, y la multitud de efectos nocivos que sufrimos debido a ellos, que se nos ha enseñado a descargar sobre nosotros mismos, como si fueran expresiones de nuestros problemas “endógenos”, sin consciencia alguna del efecto objetivos de los desequilibrios que producen.


Se trata de en buenas cuentas de una cuestión defensiva. En primer lugar se trata de nuestra propia condición. De las experiencias que nosotros mismos hemos tenido con la psiquiatría hegemónica. Pero, más allá, como en toda lucha, no se trata sólo de resistir. Es necesario reivindicar nuestro derecho de impugnar, de denunciar, de exigir que se respeten nuestros derechos o, incluso, de generar derechos que resguarden nuestra libertad y autonomía.


El derecho a ser detalladamente informados sobre los procedimientos médicos que podrían aplicarnos. Informados de manera clara y accesible, no sólo para resguardar el interés de las compañías de seguros. Informados en torno a alternativas realmente diversas, no sólo en torno al sí o no de un tratamiento que se presente como “el último y más avanzado”.


El derecho a decidir por nosotros mismos si aceptamos o no los procedimientos médicos que se nos quieren aplicar, no sólo en el ámbito orgánico, sino también en el de las supuestas “enfermedades mentales”. El derecho de las personas diagnosticadas con “trastornos mentales” de rechazar los tratamientos convulsivos o farmacológicos, de rechazar el encierro forzoso. El derecho de elegir ellos mismos los tutores que requieran en virtud de interdicciones jurídicas, y de cambiarlos cuando sientan que no defienden adecuadamente sus intereses. El derecho a no ser discriminados en ámbitos educacionales y laborales en virtud de sus “rasgos de personalidad”. El derecho de todo ciudadano a que no se le apliquen pruebas psicológicas que establezcan a priori si son aceptables en programas educativos o en posibilidades laborales. El derecho de las personas radicalmente distintas en términos de su percepción del mundo, de su funcionamiento mental, a ser respetados y valorados en virtud de su diferencia, a que se reconozca que su diferencia, aunque sea temporal o parcial, los constituye.


La reivindicación de derechos es una base desde ya para denunciar los contextos en que no son respetados. No es a partir de su consagración legal que se reivindica un derecho, sino a partir de su contenido intrínseco de justicia. Reclamar derechos es una manera de lograr elevarlos a un estatuto jurídico que los haga reclamables de manera más general y eficaz. Para denunciar su atropello no es necesario esperar que estén consagrados en leyes, aunque eso sea lo ideal. Se lucha por la justicia, no por la ley. Es la ley la que debe atenerse a la justicia, no la justicia la que debe esperar a que haya leyes.


Y denunciar atropellos es ya una forma de impugnar, no sólo de resistir, sino de pasar a la ofensiva. Denunciar la mercantilización de los servicios de salud. Impugnar los intereses a los que sirve. Denunciar la completa despreocupación de los poderes públicos por la salud preventiva y social, y su vergonzosa entrega del ámbito curativo y paliativo a la avidez del interés privado. Denunciar a las instituciones escolares que etiquetan niños y jóvenes. Impugnar las políticas educacionales que lo permiten o lo toleran. Denunciar el ejercicio profesional desastrosamente irresponsable de psiquiatras, y de los profesionales de todas especialidades médicas que recetan fármacos como primera línea de acción, sin informar adecuadamente ni de sus riesgos, ni de las alternativas posibles. Impugnar el interés mercantil que abunda en su ejercicio profesional privado.


Se trata, en suma, de constituir una política. De fundar un nuevos espacio en las múltiples dimensiones de la política. Un espacio que, como los árboles, no puede sino crecer desde la raíz. Esa raíz somos nosotros mismos, y el sufrimiento que hemos obtenido tratando de resolver por la vía médica nuestros sufrimientos.


Una política que las muchas izquierdas deben procurar entender en su mérito propio, en su autonomía y especificidad. Una política que podría llegar a ser de izquierda, aunque no está obligada a serlo, ni necesita llegar a serlo para ser ya una política válida y eficaz.


Pero, asumida por los que queremos ejercer una crítica radical contra los poderes dominantes, una política que está arraigada en lo más profundo de lo que ha significado ser de izquierda en todas las épocas.


En una gran izquierda, diversa, operando en red, integrada por múltiples formas de organización local, en torno a los más diversos problemas, con perspectivas incluso parcialmente contradictorias entre sí, pero a la vez reunida bajo un gran espíritu común, esta lucha por la subjetividad no es sino la lucha por construir y desarrollar las bases psíquicas desde las cuales la misma política de izquierda puede llegar a existir. O, dicho en su lenguaje clásico, es una parte central en la tarea por construir un sujeto político radical.


No es fácil que las izquierdas clásicas, postradas en los atavismos del vanguardismo ilustrado, entiendan estas “sutilezas” en torno a lo que habría “por debajo” de la consciencia. Y esta dificultad es mayor si consideramos que se trata de un ámbito en que ni la solidaridad, ni el “apoyo” veladamente paternalista, ni la tolerancia más o menos indiferente, son suficientes. O, incluso más, resultan directamente contraproducentes. Se trata de los temores, las inseguridades, las vergüenzas, los delirios, las ansiedades, de los ciudadanos comunes. Un ámbito en que es necesario mantener con ese tipo de problemas una actitud de compromiso, de involucramiento. Personas en situaciones, en estados subjetivos, particularmente sensibles a la descalificación, al desengaño de la tolerancia forzada o la solidaridad exterior. Un espacio en que es necesaria una política directamente amorosa, en que el cariño pasa por el reconocimiento profundo de lo mucho que tenemos en común con aquellos que han tenido de algún modo la valentía de hacer manifiestos los síntomas de su malestar, que nosotros, los políticos racionalistas más prosaicos, hemos aprendido a ocultar tras nuestros propios delirios ilustrados. No es un misterio para nadie que para los luchadores clásicos, particularmente para la mayoría de los marxistas, las luchas que empiezan en la casa, desde su propio fuero interno, suelen ser más difíciles que las que se dan directamente en la calle. Como marxista que soy, y muchas veces muy clásico, puedo decir dos cosas sino en nuestra defensa al menos como atenuantes: primero, para cualquier luchador esta clase de batalla es más difícil que las que se pueden dar en la calle y, segundo, nuestros jóvenes de izquierda son hoy en día infinitamente más sensibles, en este, y en casi todos los ámbitos, de lo que fuimos capaces de ser a lo largo del siglo XX.


c. Cuestiones prácticas y cotidianas

1. Desmedicalizar para vivir mejor

Como ya está dicho, esta es una política que, como los árboles, debe crecer desde la raíz. Y esa primera línea de acción es uno mismo, no tanto en el sentido individualista de la autoayuda habitual sino, de manera más política, en el ámbito de nuestra familia.


La acción más general y primera es disminuir todo lo que sea posible la intervención médica, en particular, evitar a toda costa recurrir a soluciones o paliativos de tipo médico cuando se trata de problemas subjetivos. Ni el insomnio, ni la ansiedad, ni el pánico, y aún mucho menos la tristeza, el desánimo o el miedo, son problemas médicos. Es necesario aprender a considerarlos como respuestas razonables y perfectamente normales ante situaciones objetivas. Existe una amplia gama de paliativos no médicos para tratarlos, desde luego, en primer lugar, la conversación, las relaciones intersubjetivas. También existe una infinidad de remedios caseros, usados tradicionalmente, que no son intoxicantes ni generan dependencia.


Desmedicalizar no consiste en no recurrir a la atención médica. Consiste en reducirla, en pensar siempre vías alternativas, en abordarla de manera crítica. Una buena formación personal en el saber básico en salud permite reducir la tentación de correr al médico. Pero siempre será necesario hacerlo. En ese caso es bueno mantener una relación personal con un mismo médico general, para toda la familia, durante el mayor tiempo posible. Este hábito, en las capas medias, implica evitar la atención genérica, curiosamente superficial y de mala calidad a pesar de su costo, que ofrecen los grandes centros hospitalarios privados. Un médico familiar y permanente, de un pequeño centro médico es preferible. Pero, para la enorme mayoría de la población, esto implica organizarse para relacionar lo más estrechamente posible a la comunidad con la atención pública primaria, y establecer acuerdos de atención por familia, con médicos estables. La gran mayoría de los problemas de salud pueden, y deben ser tratados en este nivel primario. Y es una reivindicación central, inmediata, de toda organización popular.


Desmedicalizar implica evaluar por uno mismo la asistencia médica que se recibe. Ante procedimientos mayores consultar alternativas. Ante cualquier intervención informarse lo más detalladamente posible sobre su carácter y posibles efectos colaterales. Sobre todos los fármacos que hay en el mercado es posible encontrar información, en castellano, en MedlinePlus, el servicio de información pública del National Institute of Health de Estados Unidos, disponible en línea en www.nlm.nih.gov/medlineplus/spanish/. Consultando más opiniones, investigando en Internet, muy pronto descubrirá que prácticamente todos los procedimientos médicos pueden ser evaluados de manera directa por los propios usuarios, lo que debe concederles un fundamento mínimo para decidir por sí mismos en torno a su conveniencia.


Sin embargo, como he insistido a lo largo de todo este texto, la gran excepción son justamente los fármacos que afectan al sistema nervioso, respecto de los cuales sólo cabe una recomendación simple: evitarlos a toda costa. Si ya se están consumiendo, disminuirlos progresivamente. Si se mantiene la necesidad que los origina, reemplazarlos por medidas inocuas en términos neurológicos: compartir, hacer ejercicios, consumir los productos ofrecidos por las múltiples formas de medicinas alternativas como la homeopatía, las llamadas Flores de Bach, o las hierbas de la medicina tradicional.


Desmedicalizar significa también enfrentar la intervención médica con una filosofía global, que la ponga en un contexto más cercano, más humano, al de la medicina industrializada.


- Considerar siempre el efecto global de cualquier procedimiento, por sobre su conveniencia local, aunque aparezca como muy deseable.


- Considerar siempre la calidad de vida antes que la consideración meramente orgánica, la que por cierto será necesario integrar como un componente necesario.


- Acercarse al asunto global de la salud teniendo siempre presente que no existe la salud perfecta, ni es posible vivir en una situación de riesgo cero.


- Considerar con desconfianza la información médica que proviene de la propaganda de los hospitales privados o las industrias farmacéuticas, o que aparece como “información científica” aparentemente “desinteresada”, en los medios de comunicación masivos.


- Tener presente que los llamados “factores de riesgo” forman parte más de la propaganda comercial en medicina que de un saber que sea realmente útil en términos clínicos. Y, desde luego, que aun en el caso de que tengan algún fundamento estadístico, nunca son aplicables de manera directa a casos individuales.


- Acostumbrarse a tratar los malestares físicos leves, aunque sean molestos, como las alergias, los trastornos gástricos, los dolores musculares, las eventuales molestias durante la menstruación, la “hipertensión” moderada, a través de medios no médicos.


- Considerar que los chequeos médicos genéricos son más bien prácticas de promoción mercantil de servicios de salud que algo que sea realmente útil. Informarse sobre la utilidad real de los chequeos periódicos específicos.


- Considerar con desconfianza el escalamiento y la ampliación diagnóstica, y el consiguiente escalamiento y ampliación terapéutica. Tener presente que la mayoría de los procedimientos médicos administrados en el contexto de una política de salud mercantil (los hospitales privados), o que privilegia el enfoque meramente curativo (como suele ocurrir en la mayor parte de las políticas públicas y de la práctica privada), operan como precursores de otros servicios médicos, generando verdaderas espirales de medicalización.


Una de las formas más frecuentes de la ansiedad en torno a la enfermedad que siempre busca fomentar la industria médica es el informar sobre las probabilidades de mejoría que ofrecerían los procedimientos que se promueven, en particular los fármacos y las intervenciones quirúrgicas, que son los negocios más lucrativos. Debido a que en las argumentaciones comunes invariablemente se llega a este punto es bueno detenerse en una mínima reflexión al respecto, distinguiendo lo más claramente posible entre probabilidad y riesgo.


Por un lado todas las inferencias en el oficio conducen a estimaciones probabilísticas. Por otro lado toda intervención médica produce más efectos, positivos o negativos, que los que se buscan directamente. Esto hace que con muchísima frecuencia que el profesional médico no esté decidiendo solamente entre lo que puede ser bueno o malo para el paciente en términos simples, sino más bien se vea obligado a optar entre un bien relativo y un mal menor, ambos susceptibles de una distribución de probabilidades en torno a su evolución. El arte en el oficio médico consiste entonces en acertar a aquello que incrementa la probabilidad de un desarrollo benigno y a la vez disminuye la probabilidad o el efecto de daños colaterales. El saber médico acumulado puede ayudarlo con la estimación de las probabilidades, pero no puede ayudarlo de la misma manera con la estimación del riesgo.


Para la probabilidad puede contar con antecedentes relativamente objetivos, el riesgo, en cambio, depende del valor de lo que está en juego. La probabilidad de salvarse jugando a la ruleta rusa con un revólver de seis balas es de un 85%, sin embargo muy pocos asumirían el riesgo de perder lo que está en juego. La probabilidad de ganar la lotería con un boleto es bajísima[105], pero lo que perderíamos al no ganarla es muy poco, y lo que podríamos ganar es mucho, entonces vale la pena correr el riesgo.


La estimación del valor de lo que está en juego, de manera local, en el dolor concreto y, de manera global, en su repercusión sobre el conjunto del modo de vida del usuario no debe, ni puede, ser tratado como un problema objetivo, para el cual habría pautas generales y únicas que respetar. Por un lado el usuario puede (y debe) estar en conocimiento lo más cabal posible de las probabilidades que afectan a los procedimientos que se le aplican y, desde luego, de las probabilidades de las consecuencias anexas que conllevan. Por otro lado puede (y debe) ser dueño de la estimación del valor que concede a los aspectos que serán tratados en él. Puestas las cosas de esta manera, prácticamente no hay asuntos médicos que no puedan ser discutidos válidamente por un usuario bien informado.


2. “Quedamos los que puedan sonreír”

Casi todas las recomendaciones prácticas que he sugerido en el apartado anterior apuntan a la medicalización en general. Y son pertinentes, en ese carácter, respecto de la medicalización psiquiátrica de la subjetividad. Es necesario ahora, manteniendo el propósito general de este libro, ser más específico, y agregar consideraciones prácticas respecto del sufrimiento subjetivo como tal.


El sufrimiento en el ámbito de la subjetividad es quizás es sufrimiento por antonomasia. Todos los dolores objetivos, que derivan de situaciones meramente orgánicas, tienen un componente subjetivo. Y, de manera inversa, todos los dolores cuyo origen sea puramente subjetivo tienen un impacto directo sobre los equilibrios que caracterizan a la salud física. Esto hace que siempre estemos ante una combinación de subjetivización del dolor físico y somatización del sufrimiento anímico.


Considerado de manera más amplia esta situación es en realidad bastante trivial: cuando los seres humanos sufren no se molestan en distinguir y separar la subjetividad de la objetividad. Tal separación no es sino un mito ilustrado. Esto no significa que no haya dolores plenamente objetivables, respecto de los cuales se puedan encontrar soluciones puramente orgánicas. Lo que significa es que aun en los procedimientos médicos más objetivos será necesario considerar el estado subjetivo del paciente. Y, de manera inversa, que es completamente esperable que el sufrimiento de origen subjetivo esté acompañado de manifestaciones físicas.


Todo esto hace que el sufrimiento de origen subjetivo se presente siempre como más apremiante e intenso que el dolor puramente orgánico. Que los que lo sufren lo evalúen como más intenso y urgente de la consideración que pueden hacer los que lo rodean. Algo que, en el fondo, también tiene una explicación relativamente trivial: los seres humanos sólo llegan a sufrir en su fuero interno, o a experimentar el sufrimiento como algo profundamente propio, cuando las condiciones de agobio, opresión, cansancio o dolor, de cualquier tipo, se han hecho particularmente extremas. No es extraño, ni es contradictorio, estar cansado y feliz, o incluso agobiado y relativamente estable. No es extraño tolerar grados, incluso bastante grandes, de explotación sin grandes alteraciones subjetivas. El que estas aparezcan es un indicio de que se ha llegado a un extremo, no sólo respecto de las expectativas sino, casi siempre, puramente objetivo.


Por otro lado, como he señalado en capítulos anteriores, la condición de “enfermo”, y en ella el poder mostrar dolores auténticamente orgánicos, implica un cambio en la consideración social del afectado. No se trata sólo del acceso a los eventuales, y en general bastante pobres, subsidios médicos ofrecidos por el Estado o las compañías aseguradoras. Se trata más bien, en un plano mucho más humano y dramático, de los contextos inmediatos en que se desarrolla la vida subjetiva, en una sociedad deshumanizada: en nuestras familias, en nuestros lugares de trabajo, en nuestras escuelas, los sufrimientos que experimentados no serán suficientemente atendidos, no serán considerados en el valor que les atribuimos, si no los presentamos con esas características somáticas, “objetivas”, médicas.


Considerar que la única forma efectiva y real de abordar esta necesidad de objetivar los síntomas del malestar subjetivo es crear un mundo más humano es una profunda verdad curiosamente inhumana, y a la vez, en la práctica real, una torpeza política: nadie puede esperar a que se haya construido un mundo más humano para aspirar a resolver de algún modo los problemas apremiantes que tiene aquí y ahora. Enfrentar las cosas de ese modo es una de las expresiones más visibles de la inhumanidad racionalista de la tradición ilustrada, siempre capaz de ver los grandes problemas, y extrañamente insensible ante sus expresiones cotidianas.


También puede ser verdad, pero es dramáticamente insuficiente, atribuir todo dolor subjetivo sólo al contexto. También es una torpeza, demasiado común, comparar sufrimientos individuales para establecer cuáles deberían ser atendidos de manera prioritaria. La única forma práctica de abordarlos, y la que puede llegar a tener un significado político, es atenderlos en la medida en que somos requeridos, y según el mérito que el propio afectado les atribuye. Siempre es bueno dar el primer paso, y ofrecer apoyo, o pedirlo. Pero siempre es bueno también limitar el apoyo a aquello que la dignidad y la autonomía del afectado hagan necesario.


En ese paso inicial, primariamente humanitario, potencialmente político, junto con escuchar y valorar el sufrimiento del otro como real en la medida en que él mismo lo estima, lo primero y más urgente es desdibujar, siempre a través del diálogo, su aparente carácter de urgencia médica. En rigor nunca las urgencias subjetivas tienen el carácter de las urgencias médicas. El plazo es distinto, las posibilidades de acción, y las alternativas son netamente distintas. La primera línea de acción siempre debe ser la de intentar de atenuar su dramatismo, la de ampliar el plazo para las intervenciones posibles. Y esto siempre se puede conseguir conversando.


Es justamente en estos casos donde la supuesta eficacia de los fármacos psicotrópicos es más engañosa, y conlleva más riesgos. Aun en el caso extremo, pero eventualmente legítimo, de que alguien decida, bajo asistencia médica, pero de manera soberana, consumir fármacos que moderen su ánimo o comportamiento, nunca debería hacerlo en situaciones extremas, bajo la ilusión de que logrará a través de ello abordar adecuadamente las tensiones que le parecen urgentes. Nunca un psicofármaco debería ser considerado como un recurso de urgencia. Hacerlo no muestra más que la irresponsabilidad del psiquiatra, y la avidez mercantil de la industria.


La gravedad de usar fármacos como recursos de urgencia en psiquiatría proviene en primer lugar de que es justamente en esos estados de sufrimiento agudo que parecen requerirlos donde más probablemente se incuba y desarrolla la tendencia a depender de ellos. Y en segundo lugar proviene de que son los estados en que más probablemente el usuario dejará de consumirlos, en cuanto tenga la impresión de que la emergencia ha pasado, con los consiguientes efectos de resaca, y la consiguiente mala práctica, tan extendida en el gremio, de tratar la resaca no como efecto de la droga sino como manifestación del cuadro subyacente.


El único recurso realmente eficaz, y notoriamente el menos riesgoso, ante las “urgencias” psiquiátricas, es la contención y el apoyo intersubjetivo. Todo lo demás es sólo propaganda, y conduce a problemas mayores de los que se intenta resolver.


El segundo paso, si se ha logrado desdramatizar lo que se consideraba un estado que requería de acción urgente, es establecer, de manera informada y dialogada, cursos de acción en que el afectado sienta que está participando realmente, en que sus propias decisiones, sus propias acciones, sean valoradas, teniéndolas siempre como el primer y más importante elemento para fijar cursos de acción más prolongados.


Es muy probable, y completamente atendible, que los afectados crean que consumiendo fármacos podrán contener los problemas que los aquejan. Es la marea predominante, seguramente han escuchado testimonios aislados, y han retenido selectivamente los comentarios favorables por sobre las quejas, seguramente las eventuales quejas de otros consumidores les han sido explicadas como excepciones, o como producidas por problemas también “endógenos”. Lo que una política humanista puede hacer en estos casos es tratar de informar lo más detalladamente posible al afectado de los riesgos que conlleva su consumo, intentando en lo posible que sea él mismo el que busque la información que le parezca más aconsejable y autorizada. Respetando siempre su propia decisión, manteniendo siempre la disposición a atenderlo y apoyarlo ante los síntomas adversos que presente luego, aportando más información, y más específica.


Es, en general, una política dudosa, ineficaz, contraproducente, tratar de atemorizar a los usuarios eventuales, presentándoles las consecuencias posibles más allá de lo que está establecido por la psiquiatría crítica, o como una opción entre un mal absoluto y un bien absoluto. Para muchas personas la medicación psiquiátrica podría ser sólo una etapa, muchas podrían incluso escogerla como camino permanente, haciéndose cargo de las consecuencias posibles. Para los primeros sólo se puede ofrecer apoyo, y la disposición a acompañar el proceso de su abandono. En el caso de los segundos es bueno aprender a abstenerse. Una política humanista no debería tratar de resolver los problemas prácticos, inmediatos, a través de prohibiciones o castigos. Cuestión que sí se puede promover, en cambio, en el ámbito general de las políticas públicas que regulan y fiscalizan el oficio médico.


El asunto es, más bien, ofrecer alternativas. Y hay muchas. Se ha establecido de manera contundente que el régimen alimenticio, el descanso, el ejercicio, la costumbre de socializar, tienen un impacto directo en los estados subjetivos. Comer más sano, dormir más, recuperar los amigos, pasar más tiempo con la familia, deberían ser siempre las primeras acciones cuando se enfrentan situaciones difíciles. Cuando se logra dar el paso hacia ese tipo de líneas de acción, rápidamente, las cosas empiezan a cambiar. El problema más frecuente, sin embargo, es mantener una cierta consistencia en su ejercicio. Ningún problema subjetivo se puede aliviar de manera significativa a través de procedimientos rápidos, o de eficacia mágica. Desarrollar la capacidad para enfrentar “recaídas”, desarrollar la capacidad para asumir fracasos relativos, deben ser tareas permanentes.


Muchas personas optarán por ir más allá de estas medidas de acceso inmediato y relativamente simple, y buscarán “terapias” para tratar de manera más sistemática lo que se les ha enseñado a percibir como problemas “endógenos”. En esos caso también es imperioso buscar el máximo de información posible, y es bueno atenerse a una cierta prioridad en cuanto al su carácter invasivo o vertical.


En general las terapias de tipo psicológico son ampliamente preferibles ante la intervención posible de un psiquiatra, sobre todo si predomina en él el enfoque médico. Entre ellas, en general, son ampliamente preferibles las que ejercen una relación más horizontal entre terapeuta y paciente, y las que no recurren a efectos “inconscientes” como política de cura. El primer criterio es que una intervención intersubjetiva es netamente preferible antes que una intervención médica. El segundo criterio es que se debe buscar aquellas relaciones intersubjetivas que no tengan las características “clínicas” de verticalidad, monopolio del saber y del poder terapéutico, negación insistente de la capacidad del afectado para conocer y resolver sus propios problemas por sí mismo, o entre pares.


Hay muchísimas formas de terapia psicológica que obedecen a esos dos primeros criterios, en general, por ejemplo, las que suelen obedecer a una orientación cognitiva, o “cognitivista”, o las que se ubican a sí mismas en el amplio campo que se hace llamar “humanista”. Bajo la condición, por supuesto, de que no apelen, “sólo como complemento”, o “sólo como contención temporal”, a la medicamentación psiquiátrica, que no hace sino anularlas.


Pero también hay muchas formas, distintas en su origen, filosofía y propósito, a las de la psicología, que tienen poderosos efectos terapéuticos, junto con la garantía enorme de que no son, ni se presentan a sí mismas, como terapias. Es el caso de la meditación de tipo budista, de las formas menos gimnásticas del yoga, de las llamadas “terapias” corporales, de sistemas de disciplina física y subjetiva como el Tai Chi, o las formas menos agresivas de las “artes marciales”.


Lo que tienen en común, y lo que les proporciona una enorme ventaja respecto de los recursos típicos de la psicología de origen y orientación más científica, es su consistente negación de la dualidad alma - cuerpo, con la consiguiente preocupación por atender estados globales de la persona, más que la solución técnica y local de problemas acotados por criterios de distinción puramente racionalistas.


Su defecto genérico, sin embargo, digámoslo, porque es bueno tenerlo presente, es su consistente orientación hacia el desarrollo individual, en desmedro de la potenciación de experiencias comunes. Cuestión que es perfectamente consistente con su insistente despolitización de la subjetividad, en beneficio de sistemas de creencias que han sido milenariamente funcionales a la dominación imperante, sobre todo en las sociedades agrícolas.


El orden y gradación, de las alternativas posibles, que son muchas, no es difícil, los pasos que ofrece, progresivos, son claramente especificables:


- acudir a los pares, la familia, los amigos, el barrio, la acción colectiva,


- iniciar y mantener hábitos de alimentación, descanso y ejercicios físicos más sanos,


- recurrir a formas de terapia corporal no agresiva, con contenido psicológico,


- recurrir a la atención psicológica en líneas de trabajo intersubjetivo dialogado, horizontal, no “clínicas”, que desarrollen el empoderamiento y la autonomía,


- recurrir a formas de desarrollo y ejercitación física y mental no convencionales, que trabajen de una manera no médica la unidad “cuerpo – alma”.


Ningún problema subjetivo que sufran las personas comunes, aun a propósito de situaciones extraordinarias, de agobio radical, o de tensiones que son percibidas como “urgentes”, queda fuera de estos cursos de acción. Cada uno de ellos no sólo ofrece importantes posibilidades de mejorar su situación sino que, a la inversa, presentan efectos laterales o nocivos mínimos. Cada una de ellas es accesible con relativa facilidad, y con costos económicos relativamente bajos. Objetiva y subjetivamente, exactamente al revés que en la intervención psiquiátrica de orientación farmacológica, su costo eventual siempre es mucho menor que sus posibles beneficios.


Pero, ¿qué hacer con los locos? Dados los hábitos comunes de estigmatización, la pregunta permanece, y proyecta un efecto profundo sobre todas las consideraciones anteriores. Se llama “locos” a ciertas personas en muchas situaciones distintas. Hoy este uso común, cuyo amplísimo rango va desde lo inocente y festivo hasta la calificación insultante, es preocupante por la sostenida tendencia a darle al término una connotación psiquiátrica, y el riesgo de ser puesto bajo la vigilancia psiquiátrica y su propensión a la medicamentación desde situaciones que pueden ser completamente circunstanciales, o que pueden tener un origen perfectamente racional.


Ronald Leifer ha llamado la atención sobre el hecho de que todos estamos de algún modo vigilados, no sólo por la policía o los psiquiatras, sino sobre todo por nuestros propios pares, respecto de una eventual y repentina “caída” a la locura.[106] Muchas personas, incluso, recurren al uso justamente de ese estigma para obtener lo que no han podido por otros medios más humanos y menos extremos: “me volví loco”, “si no hacen algo me volveré loco”. Asumen temporalmente los patrones de locura que han sido popularizados por los medios de comunicación, convencen y se convencen profundamente de que han caído en esos estados, actúan de acuerdo a ellos… y sufren las consecuencias: etiquetamiento, medicación, internación y, peor aún, a pesar de sus intenciones iniciales, empeoramiento.


Como es ampliamente conocido, la amenaza de suicidio y la violencia extrema, aparentemente injustificada, son las manifestaciones más frecuentes de un recurso extremo (“volverse loco”) que no tiene otro origen que la medicalización promovida por el gremio psiquiátrico. Como el discurso de la enfermedad en general, también promovido por razones comerciales, aparece con el aura espuria de lo objetivo, así también la “enfermedad mental” es una manera de “objetivar” el malestar subjetivo.


Desde luego, la primera tarea al abordar a un “loco” es hacer una estimación general del origen más probable de su estado. Ya sabemos que para estos efectos los manuales y criterios diagnósticos de la psiquiatría hegemónica son completamente inútiles. De lo que se trata no es de clasificarlo en algún tipo de locura. Es preferible asumir su situación global, las consecuencias que está teniendo para él mismo y para su entorno, y buscar razones para esa situación como conjunto. Prácticamente todos los casos cotidianos de “locura” considerados de esta manera, resultan “sorprendentemente” razonables. Una sorpresa que se debe, por cierto, sólo a la costumbre de creer los mitos de la psiquiatría.


La “locura” temporal, reactiva, por aguda que sea, casi siempre tiene su origen en circunstancias del entorno inmediato. Personas que han sido abusadas de manera grave y reiterada reaccionan el algún momento con extrema violencia. Personas que han perdido de manera repentina a seres muy queridos creen verlas y escuchan sus voces. Personas que han vivido de manera permanentemente inestable, desde un punto de vista familiar, económico, social, suelen tener comportamientos extravagantes cuando se ven sometidos a tensiones o situaciones extremas. En rigor no hay nada de “locura” en estas reacciones, cuya lógica interna las hace perfectamente razonables, aunque en términos policiales, o de convivencia cotidiana, sean violentas o molestas. Tampoco, desde luego, hay nada en ellas que pueda ser llamado “enfermedad” desde un punto de vista médico. Ni siquiera cuando se considera la propensión de algunas personas a reaccionar de este modo, que no estaría presente en otras. Como he insistido a lo largo de todo el texto, prácticamente todas estas reacciones pueden ser ubicadas, cuando se entiende su racionalidad propia, en el amplísimo rango de la variabilidad subjetiva humana.


Pero la preocupación persiste. Sea cual sea el origen, aparentemente la realidad de alguien en estado de locura impone un tipo de abordaje técnico, especializado, que sólo los psiquiatras podrían tener. No sólo no es ese el caso. La experiencia muestra que la intervención del psiquiatra frecuentemente empeora la situación, sobre todo para el afectado mismo, por mucho que el que logre ser “tranquilizado” sea conveniente para su entorno.


Lo que sostengo, apoyado por cierto en la larga y abundante práctica de la antipsiquiatría, es que no hay ninguna situación de “locura” que no pueda ser contenida a través de medios puramente interpersonales. Y que el pronóstico de este tipo de intervención es netamente mejor, para el afectado y para su entorno, que el que proviene de la psiquiatría medicalizada.


Los casos más relevantes al respecto son los de esa vaga acumulación de síntomas y etiquetas a la que el gremio llama “esquizofrenia”.[107] En un contexto de escucha, comprensión, validación, los “esquizofrénicos” se comportan de manera “milagrosamente” distinta a las catastróficas derivas que los psiquiatras convencionales predicen para ellos. Las actitudes violentas, la tendencia a la autoagresión, la presunta degradación cognitiva progresiva, la incapacidad de discernimiento en torno a sus propios intereses, que suelen asociarse a los cuadros de “esquizofrenia”, que muchos consideran aún como una condición progresiva e irreversible, y para los cuales la psiquiatría estándar no cuenta con más alternativa que la “desactivación” muscular y afectiva, “de pronto” disminuyen notoriamente la intensidad y el dramatismo de sus manifestaciones, “de pronto” resulta que en la mayoría de los casos no son ni progresivos ni irreversibles, de pronto dan lugar a casos en que se puede “volver” de manera estable y duradera, en lo que el equivalente médico llamaría “curación”, que es justamente la meta que la psiquiatría médica impone de manera compulsiva y, sin embargo, nunca muestra ser capaz de alcanzar.


Quizás este es el argumento más contundente para los enfoques alternativos a la intervención psiquiátrica de tipo farmacológico: muestran una eficacia local y global, en términos tanto del estado del afectado como de su entorno, notoriamente superior a las “curaciones” espurias de lo que se considera el tratamiento oficial. No sólo porque se han evitado los fármacos que visiblemente sólo retienen, e incluso empeoran, el estado de los pacientes que han sido convertidos en adictos, sino porque se ha optado por un estilo de apreciación global e intervención radicalmente distinto al autoritarismo médico.


Hay una última situación, quizás la más frecuente de todas, para la que quiero formular consideraciones especiales, y que es en buenas cuentas la que me llevó a investigar y a escribir este libro: la de las personas que han quedado atrapadas en el consumo de medicamentos psiquiátricos.


Unos en procesos de franca dependencia, psicológica y física, otros en el espiral de escalamiento diagnóstico que los llevará a esa dependencia, otros en el ir y venir dramático de episodios de medicalización interrumpida seguidos por largas secuelas que los conducen a nuevas drogas, casi siempre más graves.


Lo que puedo decir, en primer lugar, después de ver y leer sobre innumerables experiencias, es que más allá del dramatismo que los efectos de esa medicalización puedan alcanzar, prácticamente en todos los casos es plenamente superable.


Hay agrupaciones de víctimas, y colectivos de psiquiatras y psicólogos de orientación social, que han desarrollado una larga y exitosa práctica en el abordaje de estas situaciones, incluso desde sus grados de empeoramiento más extremo. En castellano se puede encontrar la valiosa, y también emocionante, guía “Discontinuación del uso de drogas psiquiátricas: una guía basada en la reducción del daño”, publicada bajo licencia Creative Commons, para ser distribuida libremente, por The Icarus Project y Freedom Center, disponible en www.theicarusproject.net.


Su lectura me ha llenado de entusiasmo y esperanza, no sólo respecto de su utilidad muy concreta y cotidiana, sino respecto de las enormes repercusiones políticas que tiene el que un trabajo de este tipo sea posible. Me alegra poder dejar este libro, del que sólo resta un Apéndice técnico y la Bibliografía brevemente comentada del apartado siguiente, justo en este punto. Con un signo de esperanza que apunta hacia una enorme tarea por emprender. En ella, como dice tan bien Silvio Rodríguez, “quedamos los que puedan sonreír”.


Apéndice

Tres cuestiones epistemológicas

1. Uso metafísico y uso pragmático de la causalidad

Pero la epistemología forma parte de ese marco objetivo que debe funcionar como piso mínimo para las opciones éticas. Y, en ese orden, es necesario especificar el carácter y uso de uno de los términos que más he aludido hasta aquí, el de causalidad. Cuestión clave para entender el alcance y los límites de uno de los componentes básicos del modelo médico de enfermedad: la necesidad de observar de manera directa e independiente las causas.


Hace más de dos siglos David Hume mostró de manera contundente que nunca se puede demostrar empíricamente una conexión causal entre dos términos. Sus argumentos se pueden encontrar claramente repetidos y expuestos y, en la medida en que se puede, mejorados, en los escasos mejores párrafos de Karl Popper.[108] El asunto es bastante contraintuitivo, pero los argumentos son inapelables. Para cualquiera de nosotros la lluvia moja, y nadie dudará en afirmar que la causa de que alguien esté mojado después de caminar bajo la lluvia… es la lluvia. Hume, que era un filósofo razonable, aceptaba que este juicio era plausible, e incluso, en la terminología actual, altamente probable. Lo que argumentó es que no podía ser demostrado. Se puede mostrar que alguien se ha mojado bajo la lluvia, pero no se puede demostrar que siempre se mojará.


Hume demostró[109] que el asunto, en términos empíricos, dependía de la lógica de la inducción. Las conexiones causales entre dos términos, por ejemplo “si ponemos la tetera al fuego, el agua hierve” (en el sentido preciso de que el fuego es la causa del hervor), no son sino la conclusión de una inferencia inductiva. Lo que Hume demostró es que no se pueden obtener conclusiones universales y necesarias a partir de una inducción realizada a partir de proposiciones empíricas. Es decir, es demostrable que las conexiones causales no son demostrables.[110] Esto significa, por ejemplo, en términos médicos, que no se puede demostrar que el bacilo de Koch es la causa de la tuberculosis.[111]


Para el propósito de este apartado epistemológico es necesario recordar aquí otro asunto relacionado, pero que se conocía desde cientos de años antes de Hume: que las causas no pueden ser inferidas a partir de los efectos. En términos de la lógica estándar esto es lo que se suele llamar “falacia del consecuente”, común en el discurso cotidiano, pero estrictamente falaz para la lógica. La cosa es que si bien la lluvia moja (conexión que en el argumento condicional va de p a q, del antecedente al consecuente), del hecho de que alguien esté mojado (afirmación del consecuente q) no se sigue necesariamente que haya caminado bajo la lluvia (afirmación del antecedente p). O, si se quiere un ejemplo médico, el asunto es que si bien la tuberculosis produce fiebre, constatando la fiebre no se puede inferir que alguien tenga tuberculosis. Es necesario, por las graves consecuencias que esto tiene en psiquiatría, retener este principio: nunca se puede diagnosticar una enfermedad sólo a partir de sus síntomas. No sólo por razones prácticas, sino por razones lógicas, los síntomas sólo pueden ser indicios para el diagnóstico, el que no se completa hasta observar directamente la causa.


Todo esto deriva, sin embargo, del uso que estamos haciendo de la idea de causalidad, y de las exigencias que le asociamos. Llamaré “uso metafísico” de la causalidad a aquel que le impone la obligación de una demostración formal, que cumpla con las reglas de la lógica estándar. Está bien establecido que, en esos términos, la causalidad no puede ser demostrada.


Afortunadamente, ahora en términos prácticos, no es necesario formular tales exigencias. Es posible, bajo un nuevo juego de condiciones, lo que llamaré “causalidad en sentido pragmático” o “uso pragmático de la causalidad”. Lo que se puede obtener por esta vía son atribuciones causales que, sin ser demostrativas, nos permiten una amplia confianza en la firmeza, estabilidad y reproductibilidad de la conexión establecida.


El autor que estableció de manera clásica esas condiciones fue John Stuart Mill (1806-1873), en su Sistema de Lógica (1843). En la investigación médica el procedimiento fue elaborado de manera progresiva desde Louis Pasteur y Robert Koch hasta culminar en la formulación de Austin Bradford Hill (1897-1991), que es a la vez más específica y más operativa que la de Stuart Mill.[112]


El principio general de este procedimiento es que se debe establecer una serie inductiva observando de manera correlativa dos series de eventos, una en que hay un término del que se supone alguna influencia causal, y otra en que es posible observar otro término, del que se puede suponer que es su efecto. Podemos afirmar que entre estas dos series hay una conexión causal si se cumple que:


- el segundo término aparece siempre que aparece el primero (en este caso se dice que hay “acuerdo”, y se puede postular que el primero es una condición suficiente para el segundo);


- el segundo término falta si falta el primero (en este caso se dice que hay “diferencia”, y se puede postular que el primero es una condición necesaria para el segundo);


- las variaciones introducidas en el primer término aparecen acompañadas de variaciones análogas en el segundo (en este caso se dice que hay “variaciones concomitantes”);


- todas las variaciones, que no sean la que nos interesa, en la segunda serie de eventos pueden ser explicadas a partir de otras causas, de tal manera que sólo queda para ella la variación del primer término (en esta caso se dice que se ha inferido sobre la base de un “residuo”).


Cuando entre dos términos observados de manera correlativa se puede establecer que el primero es condición necesaria y suficiente para que ocurra el segundo, que la variación del primero produce variaciones en el segundo, y que el segundo sólo puede ser explicado a partir del otro… se puede decir que el primero es causa (en sentido operativo) del segundo.


Es sobre estas condiciones generales que Bradford Hill, en 1948, estableció otras, más específicas, para el caso de que se quiera establecer un vínculo entre dos variables de tipo médico. Estas condiciones son:


- la fuerza de la asociación (una medida estadística del riesgo de que se produzca el efecto cuando se es expuesto a la causa);


- la consistencia de la asociación (la repetición del mismo vínculo en otros estudios independientes);


- la proporcionalidad entre las dosis en que se presenta la causa y dosis en que se presenta la respuesta;


- la secuencia temporal (el que las eventuales causas sean estrictamente anteriores a sus efectos);[113]


- la especificidad (causas determinadas respecto de efectos determinados);


- la plausibilidad biológica (que hayan mecanismos biológicos plausibles, ya conocidos, que puedan explicar la relación causa-efecto);


- la coherencia (con otros vínculos causales establecidos y relacionados);


- la analogía (con otros vínculos causales ya establecidos, que puedan operar como modelos plausibles);


- el que haya evidencia experimental (que se cuente con experimentos bien diseñados que puedan ser un apoyo probatorio).


Hay que tener presente que, en la medida en que este procedimiento es inductivo, y que en las situaciones reales de la investigación médica siempre hay muchas variables en juego, tanto entre los antecedentes, que son los de la primera serie de eventos (en que se supone hay una causa), como entre las consecuencias, que son las de la segunda (en que se supone se pueden observar sus efectos), el resultado que se obtendrá no será, en general, sino una estimación probabilística, y dependerá fuertemente de la separabilidad de las variables que se investigan, y de lo representativa que sea la muestra considerada en la observación respecto del universo total de la población sobre la cual se infiere. Es obvio que ambas condiciones son difíciles de lograr plenamente, o incluso de manera razonable, en cuestiones médicas.


Quizás la comparación entre las infecciones bacterianas y virales sea la más instructiva respecto de estos límites. No es difícil observar de manera directa la acción de las bacterias (y a las bacterias mismas), lo que ayuda enormemente en el punto de la separabilidad de las variables, permite operar con ellas directamente, y relajar así la exigencia de contar con una serie de casos que sea realmente representativo de toda una población. Las vacunas y antibióticos probados en relativamente pocos casos resultaron seguros y eficaces. El panorama es distinto en el caso de la acción viral. Es difícil separar los mecanismos en juego u operar separadamente sobre los virus mismos, de tal manera que las medidas que se muestran exitosas en algunos casos son difícilmente extrapolables a muchos otros. Siempre, y de manera decisiva, está la posibilidad de que aparezcan nuevos factores, hasta entonces ignorados, que anulen o reviertan lo que se consiguió en muestras pequeñas de casos. Por eso los remedios antivirales suelen tener más consecuencias secundarias, no esperadas, que los antibióticos para infecciones comunes. En otro ámbito, la aparición del factor RH negativo en la sangre, completamente inesperada, sólo se constató después de miles y miles de trasfusiones de sangre exitosas… y a costa de muchas vidas.


La separabilidad de las variables resulta particularmente difícil cuando se examinan los procesos metabólicos, los mecanismos internos del funcionamiento celular, o redes de células fuertemente interconectadas, como ocurre con el sistema nervioso. El problema de las inferencias probabilísticas resulta significativo por la dificultad general de establecer una población homogénea, dificultad que se agrava mientras más factores entran en juego, y mientras más complejo es el sistema fisiológico que se quiere examinar. Esta dificultad de la inferencia estadística es particularmente grave cuando no se puede asegurar que la muestra sea representativa del universo, y cuando la probabilidad obtenida a partir de una serie inductiva se quiere extender al caso siguiente que es, en principio, independiente. Estos factores hacen que nunca se pueda estimar la efectividad de una terapia médica sobre un nuevo paciente en términos probabilísticos, como suele hacerse: que el noventa por ciento de los pacientes tratados de una cierta forma hayan mejorado no significa, ni puede significar, que el próximo paciente que sea tratado con ella tiene el noventa por ciento de probabilidades de mejorar. Ni la muestra anterior es representativa del universo, ni sus diferencias individuales están contempladas en las estadísticas anteriores. Su caso debe ser considerado como independiente.


Un último aspecto general de la noción de causalidad en sentido pragmático que es necesario especificar es la idea de que se pueden identificar causas directas. La verdad es que siempre es posible un retroceso causal que lleve a preguntarse por la causa de la causa, y por la de aquella, y así sucesivamente, sin término.


El asunto se complica porque se puede invocar también como causa el contexto en que un agente patógeno se hace posible y, más aún, porque hay situaciones en que la interacción retroactiva de los efectos sobre las causas hace difícil establecer cual es cual. Se podría aducir, por ejemplo, que la auténtica causa de un cuadro de tuberculosis es la falta de higiene o de nutrición adecuada, que permite que el bacilo de Koch prospere. Y, a su vez, sostener que la auténtica causa de ello es la pobreza y, también, que la causa de la pobreza es la explotación. Un problema complementario es el que se produce cuando las causas y los efectos interactúan, como ocurre con la relación entre pobreza y alcoholismo.


El problema inverso se produce, también, cuando queremos establecer cuáles son los síntomas directos. La destrucción del tejido pulmonar es una consecuencia del bacilo de Koch, y podría ser puesta entre los síntomas. Pero las dificultades respiratorias son un síntoma, a su vez, de esa destrucción.


Una virtud del modelo médico de enfermedad es que permite cortar de manera eminentemente pragmática estas escaladas posibles. Se puede considerar causa directa a aquella que, siendo observable de manera independiente, al ser erradicada conlleva la erradicación de los síntomas. Y, a la inversa, de manera local y correlativa, son síntomas directos aquellos que resultan eliminados al faltar la causa. La acción que se puede llamar “médica”, para diferenciarla de otras que pueden ser jurídicas, políticas, etcétera, se circunscribe así al ámbito local de las conexiones inmediatas, con todas las ventajas y desventajas que esto pueda tener.


Si se tienen en cuenta las consideraciones anteriores, esto significa que la acción médica que el modelo médico de enfermedad genera está centrada conceptualmente en la operación de la medicina curativa, y es desde allí que extiende su tarea, ampliando el horizonte causal, en la medicina preventiva, y el horizonte hacia los efectos en la medicina paliativa.


Pero esto tiene, por cierto, consecuencias sobre la distinción hoy en boga entre medicina preventiva primaria, secundaria y terciaria, que resultan así diferenciadas como aquella prevención que procura anticipar y evitar la necesidad de procesos curativos (primaria), la que busca anticipar de manera inmediata las situaciones de riesgo (secundaria), y la que se anticipa a la ampliación de efectos derivados y posteriores a la curación (terciaria), estando ligada a las tareas que se agrupan como rehabilitación. Como he señalado ya, hoy es necesario considerar a los propios procesos curativos como fuentes posibles de enfermedad, anticipar esta derivación es la tarea de la prevención cuaternaria.


2. Uso adversativo o defensivo del Método Científico

Nuevamente tengo que recalcar que el uso del método experimental en medicina es uno de los adelantos más notables en la historia humana. Los límites que voy señalando no están destinados a refutarlo o a poner en duda sus fundamentos que, en una perspectiva pragmática, son bastante firmes. Apuntan más bien a precisar su valor, e indicar las áreas en que es necesario considerarlo con prudencia.


Se han elaborado progresivamente protocolos definidos para su operación. En conjunto son llamados “medicina basada en la evidencia”. Protocolos que se aplican no sólo a la definición y caracterización estricta de las enfermedades, sus criterios diagnósticos y la validación de sus tratamientos posibles, sino que también a la validación de los fármacos y técnicas de tratamiento y diagnóstico, y a los usos necesarios y aceptables en la investigación de procedimientos nuevos.[114]


Una consecuencia de esta preocupación es la generalización de la exigencia de que fármacos, terapias no farmacológicas, instrumentos de exploración o diagnóstico, sean sometidos a procesos de validación que aseguren de manera razonable su eficacia, o su conveniencia. Los más sofisticados, los que ofrecen más garantías, son los experimentos ciegos y de doble ciego (ver la sección siguiente), en que se trata de sortear el efecto placebo que un tratamiento puede producir en un usuario, o los sesgos que puede introducir el observador al evaluar la eficacia eventual de un fármaco o un procedimiento.


Dados los cada vez más frecuentes usos y abusos de la profesión médica, esta preocupación por la validación científica resulta personal y políticamente necesaria para los usuarios mismos, para ejercer un cierto control, relativo, sobre los procedimientos que se les aplican.


Sostengo que estos criterios de validación pueden ser usados, por un lado, de manera positiva, para aceptar aquellos procedimientos que están respaldados por las normas más generales de la medicina basada en la evidencia. El punto crucial, sin embargo, es más bien su uso adversativo, para no aceptar aquellos procedimientos que no cuenten con ese respaldo o, lo que es cada vez más frecuente, que dicen tenerlo sin que haya sido obtenido de manera estricta. ¿Eran realmente ciegos los experimentos que dicen serlo?, ¿eran comparables el grupo muestra y el grupo control?, ¿eran realmente separables las variables que se pusieron a prueba?, ¿eran discernibles los grados en que la respuesta al tratamiento fue observada?


En la mayor parte de las especialidades médicas es posible resguardar estas precauciones y estimar de manera razonable sus resultados. Esto es plenamente accesible al usuario de servicios médicos que esté preocupado recorriendo, por ejemplo, sitios autorizados en Internet (como el National Institute of Health, cuya página MedlinePlus está en castellano, en www.nlm.nih.gov/medlineplus). La gran excepción, sin embargo, es justamente el asunto central de este libro: la psiquiatría que dice tener sus bases en la observación neurológica.


Entre las varias iniciativas de profesionales de la salud y ciudadanos críticos por promover el uso de la medicina basada en la evidencia, y fomentar el conocimiento de los procedimientos de validación científica del saber médico, quizás el más completo e importante es la James Lind Library, que se encuentra disponible en línea en www.jameslindlibrary.org. Su biblioteca, de libre acceso, tiene una gran colección de materiales originales en torno al tema, y posee un folleto de una cien páginas (accesible gracias a la licencia Creative Commons)[115], que resume de manera eficaz los protocolos aceptables, y ofrece una argumentación general en torno a su origen, utilidad y modos de aplicación. El folleto se encuentra en varios idiomas, también en castellano.


El saber médico hegemónico es un saber técnico, operativo, cuyo fundamento y eficacia deben estar validados científicamente. En rigor la medicina científica no es la única posible y, a pesar de su eficacia respecto de muchos trastornos de salud, es muy probable que en muchos otros problemas que podrían calificarse genuinamente como “médicos” no sea ni la mejor ni la más aconsejable.


Su importancia social, sin embargo, no reside sólo en que sea eventualmente más eficaz que otras formas de medicina, sino también en que, en el contexto de la dominación imperante, es la única que puede ser aplicada de manera forzosa, amparada en el marco jurídico que la protege y la hace hegemónica.


Quizás es obvio que las terapias que la medicina científica ha desarrollado para tratar las infecciones o los males cardíacos representen ventajas tan sustantivas para el afectado que la sola mención de esta obligatoriedad posible parece fuera de lugar. Cuando pensamos en los paliativos extendidos hasta el límite de lo inhumano en enfermos terminales sólo porque la ley prohíbe hacer posible en ellos el buen morir, o en el creciente número de cuadros de enfermedad que se desarrollan a partir de la permanencia en hospitales, o en los estados inhabilitantes producidos por las terapias más agresivas, esta obviedad que pareciera permitir la omisión de lo jurídico desaparece completamente.


Por supuesto, en el ámbito de la intervención médica sobre las alteraciones del comportamiento el respaldo jurídico de la medicina hegemónica se hace ostensible e inmediato, y opera prácticamente en todos los casos de manera compulsiva.


En la medida en que, como mostraré más adelante, la diferencia entre “curar una enfermedad” que afecta al comportamiento es, en la práctica, indistinguible de disciplinar ese comportamiento por razones valóricas o políticas, la pretensión “curativa” de la medicina científica en este ámbito debe ser cuidadosamente examinada. El abordaje médico de un problema valórico, social o político, puede ser perfectamente una retórica de encubrimiento de los intereses, claramente no médicos, de la dominación imperante.


En estas condiciones, es esperable, y es cada día más frecuente, que no sólo la medicina científica proteja a los ciudadanos de sus eventuales males orgánicos sino que, a la inversa, los ciudadanos tengan que protegerse de la medicina científica misma, convertida en un modo de intervención sobre sus males sociales.


El modo directamente político de esta defensa es, desde luego, el establecimiento de reivindicaciones, derechos y resguardos jurídicos. El modo argumentativo, que debe estar siempre en el núcleo de esas reivindicaciones, es exigir a los poderes públicos que la medicina científica cumpla con el propio estándar de validación del saber que le permite ostentar el título de “científica”.


Esta exigencia, que forma parte de una perspectiva más general contra la burocratización del saber, es la que constituye lo que se puede llamar uso defensivo, o adversativo, del método científico.


Pero la dificultad inmediata que encontramos cuando intentamos llevar a cabo esta defensa, a veces en situaciones de evidente alarma, que pueden ser captadas por el más elemental sentido común, es que se nos dice que lo que se nos aplica “está demostrado científicamente”. La práctica de la medicina científica es el ámbito en que la presentación de la ciencia como un mero argumento de autoridad es más frecuente, y más grave.


Como he sostenido en la sección anterior, la situación real, desde un punto de vista puramente epistemológico, es que ni la medicina, ni ninguna otra ciencia, está en condiciones de “demostrar” algo. El saber científico es un conjunto de hipótesis, coherentes, apoyadas por la experiencia, pero que nunca pueden salir de su estado de hipótesis. Por supuesto esto es algo que respecto de galaxias o electrones no es demasiado alarmante, pero que sí puede serlo, de una forma muy inmediata, cuando este saber científico se aplica directamente sobre un ser humano. Nunca, en ninguna disciplina, es posible obtener saber científico universal y necesario, que pueda servir como garantía de verdad y certeza para un procedimiento técnico.


Y, justamente porque el método científico NO puede cumplir con esta promesa de verdad y certeza, es que se puede considerar la investigación científica de ciertos tópicos de manera adversativa, para establecer que tal o cual conexión NO puede ser afirmada con certeza.


En contra de la retórica maximalista que ofrece certeza y muestra apariencias de verdad incontestable, cuyo sentido es más bien el convertirse en un argumento de autoridad, un uso pragmático y defensivo del método científico puede ser el establecer los niveles de confianza que permiten las afirmaciones y los procedimientos. Sobre todo en situaciones en que se mezclan visiblemente criterios éticos y técnicos, estos niveles de confianza son cruciales para la toma de decisiones.


El uso de las reglas de validación científica de esta manera defensiva es una forma de reducir y delimitar los riesgos a los que conduce el uso autoritario del mismo método científico. El límite máximo de esas pretensiones autoritarias es que ninguna afirmación científica puede ser probada con certeza. El límite mínimo es que para que un procedimiento se considere aceptable debe estar respaldado (como mínimo) por esas reglas de validación. Si no lo está debe reconocerse al usuario la libertad para optar (sobre la base de otras consideraciones) si acepta seguirlo o no. Ningún procedimiento no validado suficientemente puede ser obligatorio, por beneficioso que parezca.


Incluso más, como en último término el método científico no nos ofrece otra cosa que elementos de juicio para delimitar o reducir riesgos (lo que es una gran cosa), las conclusiones que se sigan de él nunca pueden ser obligatorias. Otras formas de validación pueden ser perfectamente legítimas, sobre todo cuando lo que está en juego son condiciones existenciales o, incluso, modos de vida.


Pero hay en todo esto un asunto político y filosófico de fondo, que no es sino la propia pretensión de la medicina científica de presentarse como una ciencia. Y es en virtud de esa pretensión que he usado hasta aquí de manera alternativa y algo arbitraria las expresiones “método experimental” y “método científico”. Es el momento de distinguirlas.


En otro texto[116] he argumentado que el método científico no es sino una ideología que opera más bien legitimando el saber, y la operación del saber poder, que produciendo o validando conocimiento efectivo. En otro texto[117], a su vez, he relacionado esta operación de legitimación con los intereses de una clase dominante de nuevo tipo, el poder burocrático. Aquí, en cambio, he propuesto el poder de ese mismo “método científico” para defender a los ciudadanos de los eventuales abusos que surgen de su pretensión de saber. Es la triangulación de esas tres ideas la que quiero especificar ahora.


Lo que sostengo es que la medicina no tiene, ni necesita tener, el estándar y la pretensión de saber de la ciencia para alcanzar sus objetivos. Lo que en medicina se suele llamar “método científico”, sólo por los usos legitimadores que conlleva, no es sino el uso sistemático de principios de razonabilidad común, aplicados de manera eminentemente pragmática. Aunque pueda herir muchas susceptibilidades, en particular entre los que no logran entender lo que estoy diciendo, lo que afirmo es que la medicina no es una ciencia, sino un saber operativo, es decir, un saber ligado de manera directa e inmediata a las operaciones concretas que marcan su eficacia práctica.


Por mucho que la física y la química hayan sido entontecidas por los intereses económicos de las industrias electrónicas, es obvio que ese no es el estatus de la Física Cuántica o de la Teoría General de la Relatividad. Ni era el sueño de Einstein fabricar televisores de plasma, ni era el sueño de Koch entender el origen del dolor y el sufrimiento humano de manera general y abstracta.


Esto no significa que en el marco del saber médico no se puedan formular cuestiones de orden científico general o, incluso, filosóficas[118], pero es obvio que la investigación médica ni se guía ni necesita guiarse por teorías generales sobre la vida, o el funcionamiento orgánico, por mucho que mantenga una relación genérica con ellas.


De nuevo el asunto en juego no es sólo una delicadeza epistemológica. De lo que se trata es de que no hay más experticia en medicina que la que da el saber y la práctica del oficio, es decir, algo que puede ser alcanzado por ciudadanos comunes, en situaciones comunes, (en particular, y en primer término, por aquellos que ejercen esos oficios que son llamados “auxiliares de la medicina”), o que puede, al menos, ser juzgado y valorado con meras normas de razonabilidad común.


No sólo por la complejidad y valor de su objeto, sino por el carácter mismo de su saber, la medicina queda así ampliamente abierta al debate público, y ampliamente abierta a la objeción del usuario común que haya logrado un cierto nivel de información.


Por supuesto, cualquiera que ejerza su oficio en el ámbito médico imperante, o haya sufrido sus consecuencias, podrá notar que esta no es la sensación que recorre los hospitales, y dista muchísimo de ser la percepción que el gremio médico tiene de sí. Y es justamente esa situación de vanidad y poder la que debe ser impugnada como condición para un ejercicio profesional más humano, e incluso más eficaz.


3. Validación científica del saber médico

Para las críticas que quiero hacer más adelante a las maneras en que se pretende haber validado científicamente diversos procedimientos en psiquiatría, es necesario decir algunas cuestiones mínimas sobre esas reglas de razonabilidad que he mencionado, y que se usan hoy en la medicina basada en la evidencia.


Los tres ámbitos cruciales en la validación del saber médico son la caracterización de la enfermedad (nosología), la construcción de pruebas diagnósticas, la eficacia terapéutica. El ideal, muchas veces dramáticamente difícil de alcanzar, es la tipificación completa y distinta de la enfermedad, la validez diferencial del diagnóstico y una eficacia terapéutica en que se pueda mostrar que los costos en términos de salud global son superados netamente por los beneficios.


La tipificación de una enfermedad puede considerarse completa cuando se pueden observar claramente y de manera independiente sus causas inmediatas, el mecanismo de su desarrollo y los síntomas a través de los cuales se hace observable en general, y distinta cuando se la puede distinguir globalmente de otros cuadros clínicos, es decir, cuando se logra establecer como proceso específico, y no como mero precursor, aspecto, o consecuencia de otro.


Es natural, tanto desde un punto de vista lógico como histórico, que las enfermedades hayan sido tipificadas tradicionalmente por sus síntomas, y sólo a partir del desarrollo de la fisiología moderna, desde fines del siglo XIX, a partir de sus causas. Como he señalado ya, sin embargo, la complejidad de ciertas enfermedades, sin embargo, impide su tipificación completa. En estos casos las acciones terapéuticas se fundan en el conocimiento de su mecanismo de desarrollo.


El que algún estado o proceso pueda ser llamado “enfermedad” tiene importantes efectos simbólicos, jurídicos y políticos. Desde un punto de vista epistemológico, en cambio, el asunto es relativamente trivial. Se trata de un proceso de caracterización eminentemente pragmático, que no requiere complicaciones esencialistas, ni sutilezas taxonómicas. Se trata, en buenas cuentas, de curarlas o contenerlas, no de fijarlas como entelequia o como idea platónica.


Más relevante desde un punto de vista práctico, aunque se funde completamente en el paso anterior, es el problema de la validez de los diagnósticos. Entenderé aquí la validez, de manera general, como:


- (1) la correspondencia clara y objetivable entre algún indicador sintomático accesible y el cuadro clínico del que se dice que es síntoma, y


- (2) el que esta claridad y posibilidad de objetivación permita que varios observadores independientes coincidan en la evaluación precisa del cuadro clínico en cuestión a partir de la consideración de la misma prueba diagnóstica.


Desde luego la validez diagnóstica depende de manera esencial de que exista una tipificación completa y distinta de una enfermedad. En rigor la relación entre enfermedad y diagnóstico es un caso de causalidad pragmática. El que se observe un indicador diagnóstico determinado es efecto de la enfermedad, que opera como causa. Si la tipificación de la enfermedad no ha logrado superar la etapa del recuento de sus síntomas, en rigor no hay propiamente un diagnóstico sino solamente la atribución de una etiqueta, un mero nombre, a una colección determinada de efectos. Como examinaré más adelante, esto es justamente lo que ocurre con las llamadas “enfermedades” mentales. Lo que se llama diagnóstico respecto de ellas, desde un punto de vista puramente lógico, no es sino un proceso de etiquetamiento.


Las intervenciones terapéuticas pueden considerarse válidas si:


- (1) curan (erradican las causas) o contienen (los mecanismos de desarrollo) justamente la enfermedad para la que fueron diseñadas;


- (2) son susceptibles de protocolos de aplicación objetivables, que permiten su ejecución de manera estándar;


- (3) producen beneficios claramente mayores que los efectos negativos, en particular, si su efecto positivo local o temporal es consistente con el mejoramiento global de la salud del afectado;


- (4) sus resultados se pueden evaluar de manera objetivable y general, y si observadores independientes coinciden en esa evaluación.


Para cualquiera de estos ámbitos (nosografía, diagnósticos, terapias) la investigación médica cuenta con procedimientos de diverso tipo y alcance que, desde luego, se espera se confirmen y potencien unos a otros. Desde un punto de vista lógico, las proposiciones que se hacen en nosografía, medios diagnósticos y procedimientos terapéuticos son hipótesis, y los procedimientos de investigación deben ser entendidos como medios para contrastarlas, de acuerdo a la operación habitual del método científico.


El primero de estos medios es la observación de las personas que presentan alteraciones orgánicas y la descripción de sus síntomas, de su evolución y de su respuesta a medidas paliativas, es decir, el estudio de casos. Desde hace muchos siglos los profesionales médicos han extendido esta observación de casos particulares a través de series inductivas sobre poblaciones enteras. Esto fue por mucho tiempo la base empírica más inmediata de la clasificación de síntomas, y el primer paso hacia la tipificación de enfermedades, y operó como sustento de las teorías sobre sus causas y modos de evolución.


Durante más de dos mil años, sin embargo, la relación entre esa base empírica inductiva y las teorías explicativas fue extraordinariamente débil. Sólo el desarrollo de los medios experimentales de la biología moderna (microscopio, cirugía fina, química orgánica) permitió la revolución de la medicina científica que he comentado antes, es decir, la conexión de la observación exterior de los síntomas con teorías explicativas a nivel microbiológico y fisiológico. Durante el siglo XX la misma observación de poblaciones se ha revolucionado a través de la introducción de métodos estadísticos y de la experimentación en modelos animales y grupos humanos.


El procedimiento que se considera estándar en la tarea de validar una hipótesis médica es el ensayo clínico, en que se comparan dos grupos, uno al que se ha aplicado un cierto procedimiento con otro al que no se le ha aplicado, para comparar sus efectos o su evolución. Cuando esta comparación se hace durante el tiempo en que se supone actúa ese procedimiento se habla de un estudio caso-control, en que el primer grupo es llamado caso y el segundo control. Pero también puede ser relevante prolongar la observación más allá de la aplicación directa del procedimiento, sobre todo buscando efectos tardíos o derivados. Esta observación prolongada es lo que se llama estudio de cohorte.[119]


En general se considera que los experimentos hechos sobre animales, o in vitro, es decir sobre tejidos que están fuera de su funcionamiento fisiológico habitual, NO son concluyentes, ni siquiera de manera pragmática, y sólo sirven para descartar problemas o daños posibles en eventuales experimentos sobre seres humanos, o para ensayar de manera puramente heurística posibles vías de investigación futura. En la medida en que la investigación médica tiene un objetivo muy pragmático, la salud de seres humanos, distinto de los intereses más amplios de la investigación biológica general, es lógico que las pruebas decisivas y reales tengan que hacerse finalmente en los seres humanos mismos.


La experimentación con seres humanos, desde luego, presenta serios aspectos éticos. La Declaración de Helsinki, de la Asociación Médica Mundial (WMA), apoyada por la Organización Mundial de la Salud (OMS), intenta proteger a las posibles víctimas de la experimentación después de cien años particularmente trágicos al respecto. Aprobada inicialmente en 1964, ha sido complementada varias veces con nuevas precautorias. La versión que actualmente se considera vigente es la aprobada el año 2000. Hay que notar que, a pesar de que lo que todo el mundo señala con escándalo es la experimentación de médicos nazis sobre prisioneros en campos de concentración, desde fines del siglo XIX fue una práctica extraordinariamente frecuente experimentar con niños y ancianos pobres en asilos, con asilados en manicomios, prisioneros de guerra (de todos los bandos) o poblaciones pobres del Tercer Mundo. Una práctica que la industria médica mantiene hasta el día de hoy, sobre todo lanzando productos farmacéuticos para su uso en países pobres, con instituciones reguladoras débiles, antes de pedir su autorización para comercializarlos en países desarrollados.


Lo que en esta sección me interesa, sin embargo, son las condiciones bajo las cuales el ensayo clínico de un procedimiento médico, eventualmente legítima desde un punto de vista ético, resultaría aceptable desde un punto de vista epistemológico. La complejidad de los seres humanos, en todos los ámbitos de su realidad médica, hace que los problemas metodológicos implicados sean bastante difíciles de abordar.


La primera gran dificultad, y una de las más importantes, es el sesgo que la subjetividad del sujeto experimental proyecta sobre los resultados de cualquier ensayo en que se estén probando cuestiones médicas. La expectativa de mejoría o el temor de empeoramiento, e incluso el sólo hecho de saberse bajo condiciones experimentales, afecta de inmediato desde las variables médicas generales (la presión sanguínea, el ritmo cardíaco, la sensación de dolor) hasta las aparentemente más objetivables y automáticas (como la actividad gástrica, o la proporción de componentes químicos en la sangre). Aunque en la mayoría de los campos de la medicina estas alteraciones pueden considerarse menores, y soslayarse con medidas relativamente simples, es en la experimentación con variables subjetivas donde el problema es más agudo, y este es justamente el caso de la experimentación en el campo psiquiátrico.


Todo el mundo está de acuerdo en que las alteraciones mentales y del comportamiento son extremadamente sensibles a la percepción que el propio afectado tenga de ellas. Es debido a esto que se ha observado, desde hace muchos siglos, que procedimientos dirigidos hacia esa percepción subjetiva pueden tener efectos objetivos. Es lo que se conoce como “efecto placebo”. Típicamente se administran pastillas que no contienen ningún principio activo particular, pero se le dice al paciente que sí los contiene, y este reacciona de hecho como si realmente esos principios activos hubiesen estado presentes. Se trata de una experiencia muy común en trastornos leves o temporales, pero hay evidencia de que se puede presentar incluso en alteraciones graves, que son las que la psiquiatría hegemónica está siempre tentada de considerar como puramente objetivas.


La forma en que se trata de sortear o disminuir el efecto placebo en los ensayos clínicos es precisamente someter el principio activo a control a través de un grupo de comparación que no lo ha recibido, pero administrando el procedimiento verdadero y el que se usa como control sin que los sujetos experimentales sepan cual de los dos se les ha aplicado. Administrar, por ejemplo, una pastilla que contiene una sustancia que se supone “tranquilizante” a un grupo y otra, con la misma forma y sabor, pero sin esa sustancia, al otro. Esto es lo que se llama “condición ciego” del experimento, porque sus participantes están “ciegos” (no saben) respecto de esa diferencia.


Quizás el ideal debería ser que los sujetos ni siquiera sepan que se les está administrando algo con fines experimentales. Habitualmente esto se hacía cambiando las pastillas que los pacientes consumían por otras, con la misma apariencia, pero que contenían principios activos distintos que se querían someter a prueba, o carecían de todo principio activo, para usarlas como control. Durante más de cien años ni los psiquiatras ni, por supuesto, las industrias farmacéuticas dudaron en someter a pruebas de esta clase a sus pacientes. Hoy prácticas como estas se consideran graves atentados contra los derechos humanos y están, al menos formalmente, prohibidas. Esto es importante porque, aun en el caso muy probable de que se sigan practicando atentados como estos, sobre todo en el Tercer Mundo, ninguna compañía farmacéutica podría esgrimir estudios realizados de esa manera públicamente.


Pero este derecho de los pacientes produce un problema metodológico objetivo. Al requerirse su consentimiento informado (al menos teóricamente, bien informado) para participar en experimentos médicos, es imposible ocultarle a qué tipo de procedimiento, y con qué objetivos, será sometido. Es obvio que, sobre todo en la investigación psiquiátrica, esto impone una “condición placebo” posible, respecto de esos procedimientos, para todos los sujetos involucrados. Desde un punto de vista metodológico esto significa que en realidad lo que se podrá mostrar en los experimentos con grupo control no es si la sustancia puesta a prueba funciona efectivamente o no, de manera absoluta, sino sólo si resulta más eficaz que el placebo usado como control.


Para entender esto un poco mejor pongámoslo en números simples. Si se tiene un grupo de 100 sujetos experimentales de los cuales a 50 se les da una pastilla “real” (que contiene el principio activo) y a los otros 50 una que podría actuar como un placebo (que no lo contiene), lo que se encontrará, por ejemplo, es que en los 50 que recibieron la pastilla real, digamos, 40 mejoraron (10 no mostraron el efecto deseado), en cambio entre los que recibieron el placebo sólo mejoraron 10 (40 no mostraron cambios). Se puede decir entonces que la sustancia puesta a prueba ha resultado mejor confrontada con un placebo. Hay que notar, sin embargo, que en 10 sujetos la sustancia no funcionó y, peor aún, en otros 10 que no la recibieron el efecto se presentó de todas maneras.


Esto es extraordinariamente importante en términos epistemológicos. Muestra, en primer lugar, que los ensayos clínicos contra placebo no demuestran la validez general del principio activo que se está poniendo a prueba. Sólo establecen una desviación sistemática a su favor que podría deberse a que tiene una incidencia real en los sujetos experimentales, o podría deberse simplemente a que todo el grupo que mostró mejorías sufrió el efecto placebo, sin que haya actuado realmente. El asunto se puede ver mejor si cambiamos algo los números. Si de los 50 que recibieron la pastilla real mejoran 45, pero en el grupo que no la recibió mejoran 35, se podrá decir que el principio activo es mejor que un placebo, pero el resultado general será, de todas maneras, que lo más probable es que haya funcionado como placebo para todos.


Lo que me importa aquí es el hecho de que tales experimentos no son probatorios, ni siquiera de manera pragmática. Por supuesto no todo está perdido, y hay maneras eficientes de mejorar la situación usando técnicas estadísticas. Sin embargo, el que se pueda encontrar una diferencia a favor del principio activo que sea estadísticamente significativa NO implica por sí mismo que se haya mostrado que es útil en términos médicos. El interés médico tiene que ver, desde un punto de vista puramente estadístico, más bien con el tamaño de la diferencia que con la diferencia como tal. Si en el grupo caso, de los 50 mejoran 49, pero en el grupo control mejoran 47, entonces el principio que se está poniendo a prueba no es muy significativo. O, también, si en el grupo caso mejoran 10, y en el grupo control 5, entonces, al menos para una parte de la muestra sí ha resultado importante.


El National Institute for Clinical Excellence (NICE), en Inglaterra, ha propuesto un estándar para evaluar la fuerza del efecto de un principio activo, en un ensayo clínico contra placebo. En términos técnicos la fórmula es la media estadística de las respuestas en el grupo caso, menos la media estadística de las respuestas en el grupo control, dividiendo el resultado de esa resta por la desviación estándar de las respuestas en ambos grupos. En su escala, un 0,2 o menos se considera un efecto bajo, un 0,5 un efecto medio, y un 0,8 un efecto alto.


Es esta fuerza del efecto mostrada por el principio activo la que se recomienda usar como criterio básico para algo que, en realidad, es mucho más complejo: evaluar la significación clínica de los resultados, es decir, tratar de proyectar lo que ocurrirá en la administración real de ese procedimiento, fuera de las condiciones experimentales. El asunto, por supuesto, excede claramente lo que la estadística, o los experimentos pueden establecer. Por un lado habrá que considerar los méritos objetivos y validables que el procedimiento ensayado muestre. Por otro lado habrá que considerar un cierto cálculo sobre los costos, médicos o no, que implicaría su aplicación y compararlos con los beneficios. Desde luego habrá que considerar el modo en que los propios afectados lo experimentan, objetiva y subjetivamente, y la disposición que tienen a usarlo.


De esta complejidad, que no es sino la de la tarea médica en general, aquí sólo interesa resaltar una condición mínima: que el procedimiento haya logrado mostrar al menos fuerza de efecto aceptable en los ensayos previos. Por debajo de esta condición ningún procedimiento médico debería considerarse validado.


Pero las dificultades metodológicas de los ensayos clínicos son varias más. Otra, la segunda más importante tras la anterior, es el sesgo subjetivo posible de los propios observadores al evaluar los resultados. Hay muchas razones para esto, que van desde su ansiedad por servir a la humanidad hasta su necesidad de servir a las industrias médicas. Lo que se considera como procedimiento estándar para disminuir este sesgo es extender la condición ciego también a los investigadores. El grupo de investigación debe dividirse entre los que aplican y administran los procedimientos que se están poniendo a prueba, sin saber en qué casos están aplicando el procedimiento real y en cuales el placebo, y otros que conocen esa distribución. El grupo ciego es el que debe luego describir los resultados. Sólo tras esa descripción el otro grupo debe revelar la distribución real del principio activo en entre los sujetos experimentales, para proceder a los cálculos estadísticos correspondientes. Esta situación es la que se llama “condición doble ciego”.


A las condiciones de ciego y doble ciego se pueden agregar otras que apunten a evitar sesgos sistemáticos puramente estadísticos, por ejemplo el que se produciría si las mejorías en los sujetos experimentales se deben sólo a que sus integrantes casualmente poseen alguna condición distinta de la del resto de las personas, o del grupo que será el destinatario final de los procedimientos investigados. Para esto es crucial la selección de los sujetos en que se realizará el ensayo. Deben ser elegidos al azar, en poblaciones que estén relacionadas con lo que se quiere investigar, y deben ser separados también al azar en los grupos caso y control. En estas condiciones son llamados “pruebas controladas aleatorias”, en inglés “randomized controlled trials (RCT)”.


De todas las condiciones que debe cumplir un ensayo clínico RCT la más difícil, particularmente en estudios en que está involucrada la subjetividad, es mantener la condición doble ciego. Al interior del grupo de investigadores, en el contacto que los investigadores deben tener con los sujetos experimentales para lograr su consentimiento informado, en los procedimientos mismos. Ocurre, por ejemplo, que los ensayos para validar drogas psicotrópicas se hacen habitualmente entre personas que ya han consumido ese tipo de drogas alguna vez, y que están familiarizadas con los efectos secundarios que producen. Guiándose por esos efectos (como la sequedad en la boca, la sudoración, las dificultades leves para coordinar movimientos), que no son los que están sometidos a prueba, los sujetos experimentales suelen inferir fácilmente si están consumiendo o no placebos. Incluso, en el caso de que las nuevas pastillas que se ensayan no produzcan esos efectos secundarios, los sujetos son influidos por la expectativa de que sí deberían producirlos, como ha ocurrido en su experiencia anterior.


Los mismos investigadores, al entrevistarlos para evaluar los efectos, pueden dar, sin proponérselo, pistas que le permitan al sujeto deducir, muchas veces sin tampoco él sea consciente, a qué grupo pertenece. Se trata de un viejo problema que los expertos en entrevistas conocen desde hace mucho tiempo, el llamado “efecto Clever Hans”, que se originó en una divertida situación en 1904, en Alemania, que vale la pena describir. El caballo Clever Hans era presentado en circos y ferias mostrando una gran capacidad para realizar operaciones aritméticas, decir la hora, y otras tareas que requerían de una cierta capacidad de razonamiento. Las autoridades de la época formaron una comisión de trece personas, dirigida por un psicólogo, para investigar el hecho. La comisión dictaminó que, en rigor, no había fraude, pero que el dueño del caballo, sin siquiera saberlo, con sólo cambiar de postura corporal, daba al animal señales suficientes que le indicaban si estaba más cerca o más lejos de la respuesta correcta. El hecho quedó de manifiesto formulando al caballo preguntas cuya respuesta el dueño no conocía (una condición “ciego”), ante las cuales el animal se equivocaba invariablemente. La moraleja del cuento es que si un simple caballo podía hacer ese tipo de inferencia, tan sutil, sobre la base de gestos tan mínimos, debería esperarse un efecto mucho más intenso entre seres humanos.


También la concepción misma del efecto médico que se quiere investigar es fuente de sesgos. La medicina científica sufre una tendencia sistemática hacia considerar los problemas de salud de manera analítica, un problema a la vez, de manera local y temporal, por mucho que el conocimiento biológico del cuerpo humano muestre la estrecha relación funcional entre todos sus sistemas. A pesar de los discursos y de las advertencias, tanto en la práctica común como también en la investigación, ocurre cotidianamente que los cardiólogos operan de manera completamente independiente de los oftalmólogos, estos de los dentistas y estos a su vez de los obstetras. Es raro que un psiquiatra consulte a sus pacientes por sus hábitos nutricionales antes de diagnosticarlo sólo sobre la base de sus comportamientos. Y así, indefinidamente.


Es esta tendencia analítica la que hace que al experimentar nuevos procedimientos médicos se tienda a distinguir entre sus efectos “primarios” y “secundarios”, en lugar de evaluarlos a la luz de una consideración global. Frecuentemente basta con que los primeros sean mucho mayores y más convenientes que los segundos para que se considere que el procedimiento es aceptable. Y luego, siguiendo la costumbre analítica, cuando se presentan en la administración clínica real esos efectos “secundarios” lo que se hace es tratarlos por separado, con procedimientos complementarios.


Pero esto, que muchas veces es una línea de acción obligada, debido a la delicadeza o a la urgencia de las intervenciones que son necesarias, introduce una enorme incertidumbre en el cálculo de costos y beneficios en dos sentidos cruciales: el plazo y la amplitud que se consideran deseables para la intervención médica. Demasiado frecuentemente se prefiere el beneficio local, respecto de un sistema orgánico, antes que el equilibrio global del funcionamiento del cuerpo. Demasiado frecuentemente se prefiere el beneficio en términos orgánicos por sobre el efecto que la intervención médica tenga sobre la calidad de vida del paciente. Demasiado frecuentemente se prefiere la mejoría más rápida y notoria por sobre los efectos a largo plazo y menos visibles.


Ninguna de estas opciones, por supuesto, puede ser decidida en el curso de una investigación científica. Todas contienen alternativas fuertemente valóricas. El problema es que se asumen de hecho, casi siempre omitiéndolas como aspectos obvios al momento de fundamentar las investigaciones y, sobre todo, justamente porque se suelen dar por obvias, sin una reflexión en que hayan participado los afectados posibles. En ese carácter, revestidas del aura meramente supuesta de neutralidad ética que suelen tener las investigaciones científicas, estas opciones de hecho se convierten en un sesgo, en el sentido directamente metodológico, en los informes finales. Cuando se dice que un ensayo clínico fue “un éxito”, o que el principio activo que se puso a prueba “realmente funciona”, nadie se molesta en explicitar si se trata de un éxito local o global, duradero o temporal, meramente orgánico o que atiende a la calidad de vida. Así como nadie se molesta tampoco en especificar en qué sentido son “secundarios” los efectos reales y tangibles que provocan los nuevos procedimientos, salvo por el sesgo obvio de que no estaban contemplados en los propósitos iniciales de la investigación.


Curiosamente, cuando los investigadores médicos son emplazados a pronunciarse al respecto la respuesta unánime es que “esos problema éticos no les conciernen directamente”. Una actitud que los científicos del siglo XX han mantenido respecto de todos los desastres a que han dado lugar sus investigaciones, desde la bomba atómica hasta la manipulación de masas, pero que en el ámbito médico adquiere un impacto más directo y dramático de lo que es habitual.


Debido a la enorme presión de la industria médica, en particular de la industria farmacéutica, que es un asunto que no tiene nada de epistemológico, cada día son comercializados decenas de nuevos fármacos, y cada año las técnicas de análisis preventivos son revolucionadas por nuevas y más sofisticadas formas de diagnosticar “factores de riesgo”.


Frente a esa avalancha lo que la metodología de investigación médica puede emprender es el estudio de efectos a lo largo del tiempo, en poblaciones más amplias que las que se usaron en los ensayos clínicos contra placebo. Esta forma es llamada, en general, “estudio de cohorte”. Opera, en buenas cuentas, como contrapeso de la parcialidad obligada de los ensayos con grupo control. Nada impide, desde luego, que también consistan en comparar grupos seleccionados bajo una característica diferencial. Típicamente se trata de comparar, a lo largo del tiempo, la evolución un grupo de quienes han recibido un procedimiento con otro que no lo ha recibido.


Una ventaja habitual (pero no necesaria) de estos estudios es que se trata de observar casos que ya no se encuentran en condiciones experimentales, en las que el efecto placebo por tanto puede considerarse como disminuido o menor. Otra ventaja, que desgraciadamente tampoco es necesaria, es que se prestan más para hacer consideraciones ambientales, que apunten a establecer de un modo más global todos los efectos, sean “primarios” o “secundarios”. Es a través de estudios de este tipo, a la larga, que se ha llegado a establecer en una enorme variedad de fármacos que los llamados efectos “secundarios” no lo eran en absoluto, y podían cambiar dramáticamente el balance entre costos y beneficios que en el corto plazo parecía favorable a otro, que sólo en el largo plazo se muestra como desastroso.


El gran y terrible defecto, inevitable, de los estudios de cohorte, por supuesto, es que sólo constatan daños a posteriori. Cientos de miles de pacientes psiquiátricos, sometidos a los procedimientos terapéuticos más inverosímiles, resultan revelados para la ciencia que decía ayudarlos sólo a través de este procedimiento, trágicamente tardío.


El otro medio de investigación médica que se considera estándar es el meta análisis. En este caso se trata, en principio, de comparar ensayos clínicos hechos sobre un mismo objetivo, con la aplicación de un mismo procedimiento, o de procedimientos similares que se sustentan en una misma base teórica. El asunto es constatar si los ensayos convergen sobre un mismo resultado. Esto tiene su fundamento en una regla metodológica básica: se considera que una hipótesis es más fiable si está respaldada por pruebas distintas e independientes. Los meta análisis hacen, como en un mosaico de fotografías, lo que los estudios de cohorte hacen en un registro que es análogo a una película.


Los meta análisis permiten no sólo apoyar o debilitar las hipótesis en juego en los ensayos clínicos que se hacen respecto de un tema determinado, sino también evaluar la dirección general de la investigación al respecto. Con los informes de investigación a la vista se pueden configurar las tendencias predominantes en un campo, y a la vez evaluar su éxito relativo. Se puede evaluar la viabilidad de una línea de investigación y comparar líneas de investigación distintas entre sí. En los casos en que los procedimientos y supuestos puestos a prueba son semejantes o pueden ser directamente comparados, un meta análisis puede ampliar la base empírica de un cierto resultado, tanto en el número de caso como en el de las circunstancias en que ha sido obtenido. El defecto, por supuesto, respecto de los destinatarios es, nuevamente, que es a posteriori.


La validación del saber médico, cuyos métodos estándar he descrito de manera sumaria aquí, no es, ni puede ser, sino un paso en la aceptación de ese saber en la práctica clínica real. De acuerdo con la idea, que he expuesto antes, de un uso defensivo del método científico, estas normas y estándares de validez son sólo un mínimo. Esto es algo que cualquier médico de cabecera sabe cotidianamente y, en términos gremiales, implica una tensión permanente entre los investigadores médicos y los médicos que ejercen la profesión directamente. En general, un buen médico usa los resultados de la investigación, por muy confiables que parezcan en su contexto experimental, sólo como una hipótesis que, aun con ese respaldo debe ser probada caso a caso. Es por esto que la determinación estadística de los factores de riesgo, a través de estudios de cohorte, le resulta más significativa que los ensayos clínicos hechos con grupo control. Pero, es por eso también, que incluso esos factores de riesgo deben ser actualizados en los contextos y casos particulares que se dan en la clínica real. El cálculo de costos y beneficios que se hace en contextos experimentales puede ser significativamente distinto del que podría hacer una persona común, que puede actuar de manera soberana en su vida diaria. Esto se puede resumir así la validación del saber médico no equivale, ni debe equivaler a su valoración.


Pero esta es la sabiduría, y la prudencia, que justamente faltan en dos actores centrales del gremio. Los médicos que usan el mejoramiento de la salud prioritariamente como una forma de lucro… y los psiquiatras de orientación médica.


Bibliografía brevemente comentada

a. Introducción

Todos los libros que he escrito son contribuciones a un mismo proyecto: pensar el marxismo de una manera que resulte eficaz para la crítica de las nuevas formas de dominación. He dedicado directamente dos de ellos a explicitar el tipo de pensamiento marxista que creo puede ser más útil para la realidad de las sociedades tecnológicamente avanzadas, para la economía post fordista, para el auge del poder burocrático por sobre la hegemonía tradicional de la burguesía. Los otros contribuyen, desde perspectivas y temáticas que pueden parecer muy diversas y lejanas entre sí, o a la tarea de dar un fundamento filosófico a una formulación radical del marxismo, o a la de entender los problemas de la subjetividad contemporánea, distintos en tantas formas de aquellos que tuvieron los eventuales sujetos revolucionarios clásicos, y tan inmediatamente presentes y esenciales en cualquier cálculo político que quiera lograr cierta perspicacia histórica. He escrito, en el primer sentido, dos textos sobre Hegel y, respecto del segundo, un texto sobre la subjetividad moderna considerada desde el punto de vista de una psicología radical, y otro sobre la danza moderna y su incidencia en los procesos de administración de la subjetividad.


En cada uno de esos textos he procurado apartarme de los usos académicos y academicistas habituales. Ni la academia, ni los académicos, son el destinatario que me interesa. En ella, me importan más los estudiantes. Más allá de ella, los profesionales que trabajan en estos campos, y cuyas acciones concretas podrían ser influidas por las ideas radicales que expongo. Aún más allá, en general, el destinatario que es para mí más relevante, es el ciudadano común, que quiere reflexionar críticamente en torno a sus condiciones de vida.


Es por esto que he desdeñado, en general, el uso de citas o bibliografías extensas que operen como un argumento de autoridad. He procurado que las ideas sean atendibles por sí mismas, por su coherencia o adecuación a los hechos, más que por estar respaldadas por algún gurú académico, menos aún si está de moda. En ese vicio sólo veo un rito academicista de validación al interior de algún campo intelectual institucionalizado, que muchos necesitan para ganarse la vida, y del que afortunadamente puedo prescindir para esos efectos puramente económicos.


Ocurre, sin embargo, que este es justamente un texto en que me veo obligado a hacer lo contrario. Esto ocurre, en parte, porque es quizás el menos original de los libros que he escrito. Prácticamente todas las ideas que expongo en él ya han sido desarrolladas por una pléyade de pensadores y activistas de los que simplemente me honro en aprender y contribuir a la difusión de sus críticas. Me importa que quede explícitamente expresada esa deuda, no sólo por la gratitud por las muchas cosas que he aprendido de ellos sino, mucho más, para que el que lea estas líneas pueda recurrir directamente a sus obras y pensarlas por sí mismo. Me he asignado aquí el papel de difusor de una serie críticos y activistas notables, y estoy seguro que conducir al lector hasta ellos completará y enriquecerá lo que aquí hayan obtenido mucho más allá de lo que puedo lograr en un solo texto.


Y también por el carácter del tema y la forma en que es discutido habitualmente. Como he expuesto en los Capítulos anteriores, se trata de un ámbito en que la burocratización del saber alcanza todo su apogeo, y se pone directamente al servicio de los intereses políticos y mercantiles dominantes. Eso hace que el uso del recurso academicista de autoridad sea extraordinariamente frecuente, no sólo en la literatura especializada sino también en la propaganda comercial de la industria médica que inunda los medios de comunicación y embota el sentido de realidad de los propios profesionales del campo. A cada paso encontramos en las discusiones en torno a los usos actuales de la psiquiatría, como si se tratara de una verdadera caricatura de lo que se ha criticado desde hace mucho como uso engañoso de la autoridad científica, expresiones como “se ha demostrado científicamente”, “los ensayos clínicos han mostrado que”, “muchos estudios especializados confirman que”.


Es justamente el contenido que se hace pasar tras ese tipo de expresiones genéricas y sin respaldo el que la antipsiquiatría actual quiere criticar y denunciar. Como la discusión gira en torno a lo que se habría o no “demostrado” científicamente, todas las referencias, incluso las más especializadas, son necesarias. Y esto hace que sea necesario también poseer herramientas para evaluarlas, para conocer su procedencia, el contexto en que han sido formuladas, los propósitos para los cuales se han creado.


Pero, en esta discusión de referencias críticas versus referencias oficiales, hay un elemento adicional que debe ser considerado de primerísima importancia: los destinatarios. La masiva propaganda de la industria médica ha llegado a convertirse en un arraigado conjunto de ideologismos y falsos conceptos en los ciudadanos comunes, de tal manera que son ahora, ellos mismos, los que exigen referencias en las que puedan depositar su confianza. La tarea es bastante complicada: se trata de contraponer un conjunto de visiones críticas, abrumadoramente silenciadas en las escuelas de medicina y en los medios de comunicación, contra la enorme marea de la propaganda comercial y política de la industria. No es una tarea imposible, y los destinatarios de la discusión tienen en su experiencia cotidiana de sufrimiento administrado que genera más sufrimiento una base real e inmediata que los capacita largamente para atender a las argumentaciones que puedan aclarar mejor su situación que las promesas cada vez más costosas, y siempre diferidas, de la psiquiatría hegemónica.


Es a esa tarea que quiere contribuir este libro. Y es ese el contexto en que, gustosamente, me permito omitir aquí mi desconfianza general hacia las citas y las referencias. Lo que quiero es ofrecer el máximo de referencias posibles para que los afectados puedan buscar por sí mismos, independientemente, o incluso más allá de las consecuencias políticas que he expuesto como conclusiones.


Para eso, en esta bibliografía brevemente comentada, he procurado organizar ese mundo de lugares de búsqueda posible por temas, y contemplar en él tanto los libros, que actúan como grandes visiones de campo, como las referencias más específicas, publicadas como artículos científicos en las revistas especializadas. Confío plenamente en que un ciudadano común puede sacar provecho de ellas. Revisadas de manera sistemática, rápidamente se tiene la experiencia que no hay en ella ninguna jerga que no se pueda entender, ni ningún problema técnico sobre el que no se pueda llegar a tener una opinión fundada. Este es un campo en que el mito de la dificultad intrínseca de la investigación científica especializada, que sólo sería accesible para especialistas versados, es particular y ostensiblemente falso.


Yo mismo soy, en estos temas, un ciudadano común y corriente. Lo que he hecho es empezar por los libros críticos más eficientes. He citado reiteradamente los textos de William R. Uttal, Joanna Moncrieff, Elliot S. Valenstein, Edward Shorter, John Read y otros. En ellos, acostumbrados a este estilo de discutir desde y hacia referencias especializadas, he encontrado los artículos de Kirsch, Bentall, Cohen, Mosher y tantos otros. Desde ellos, a su vez, he retrocedido hasta las referencias primeras, en las revistas especializadas que citan y en que escriben, y en ellas he buscado cada vez leer también los textos originales, los llamados “de corriente principal”, que son objeto de sus críticas. También a través de ellos me he acercado al hermoso mundo de las agrupaciones de usuarios y sobrevivientes de la psiquiatría, y en sus sitios de Internet he encontrado abundante material, que me ha remitido, una vez más, a otras tantas búsquedas orientadas hacia las fuentes. En principio cualquier persona medianamente ilustrada puede hacer este mismo camino. No he encontrado en él, ni siquiera en los artículos más técnicos, nada particularmente misterioso, nada que no pueda ser entendido llanamente, aun bajo la atmósfera artificiosa y pretenciosa del lenguaje especializado.


Por cierto una tarea como esta podría no terminar nunca. A cada paso, cuando ya creía tener información suficiente, algún artículo me entregaba nuevos lugares donde buscar, y abría nuevas perspectivas. Varios de los Capítulos de este libro los escribí más de una vez y, en todo caso, hasta el último minuto he tenido que estar completando las citas que ilustran los contenidos particulares que más me interesan. A pesar de esto, he optado por incluir en esta bibliografía sólo los materiales que he revisado personalmente, y a los que tengo acceso directo. Esto puede ser una advertencia banal, y podría darse como absolutamente obvia, pero todo el que conozca los hábitos académicos imperantes sabe que es completamente necesaria. Seguramente muchas de las referencias que he logrado reunir son incompletas, o podrían ser mejoradas. Lo que me ha importado, sin embargo, es sólo que soporten punto a punto lo que he planteado. La tarea de mejorarlas mucho más debería ser compartida por los colectivos que quieran integrarlas como parte de su lucha. Aquí sólo ofrezco un punto de partida.


Desde luego, la mayor parte de lo que consigno aquí ya se puede encontrar en las notas a pie de página, en cada Capítulo. Lo que hago ahora es ordenar por temas, siguiendo el orden de los Capítulos, y agregar comentarios adicionales que puedan orientar sobre el origen o la dificultad relativa de cada texto. En cada tema he ordenado los autores de manera alfabética, distinguiendo los libros de los artículos o las fuentes de Internet. En todos los casos, inmediatamente después del título, se indica el año de su primera publicación.


b. Antipsiquiatras clásicos y contemporáneos

1. Clásicos

+ Basaglia, Franco y Franca, Eds.: Los crímenes de la paz (1975), Siglo XXI, México, 1987


+ Boyers, R. and R. Orrill, Eds. Laing and Anti-Psychiatry (1971), Salamagundi Press, Nueva York, 1971


+ Collier, Andrew, R.D.Laing, filosofía y política de la terapia (1980), FCE, México, 1981


+ Cooper, David, se pueden encontrar varios textos suyos, y sobre su obra en la sección de coloquios en www.laingsociety.org


+ Del Guidice, Giovanna, Psychiatric reform in Italy (1998), disponible en el centro en que trabajó Basaglia en Trieste, www.triestesalutementale.it. En este sitio se puede encontrar, en castellano, abundante material sobre Basaglia y la trayectoria de la Ley 180 hasta hoy


+ Foucault, Michel, Historia de la locura en la época clásica (1961), FCE, México, 1985


+ Laing, Ronald D., The Divided Self: An Existential Study in Sanity and Madness (1960), Penguin, Londres, 1960. He usado la traducción castellana, El yo dividido, FCE, México, 1988


+ Laing, Ronald D., The Self and Others (1961), Tavistock Publications, Londres, 1961. He usado la traducción castellana, El yo y los otros, Fondo de Cultura Económica, México, 1978


+ Postel, Jacques; Quétel, Claude, Historia de la Psiquiatría (1983), Fondo de Cultura Económica, México, 1987. Una historia que completa, y muchas veces corrige, la de Michel Foucault.


+ Rosen, George, Locura y sociedad, sociología histórica de la enfermedad mental (1968), Alianza, Madrid, 1974


+ Szasz, Thomas, El mito de la enfermedad mental (1961), Amorrortu, Buenos Aires, 1973. La edición original es The Myth of Mental Illness: Foundations of a Theory of Personal Conduct (1961). He usado la versión castellana y la edición en inglés Harper & Row, Nueva York, 1974


2. Contemporáneos

i. La mayoría de los textos importantes de los antipsiquiatras actuales se citan en otras secciones más específicas de esta bibliografía, consigno aquí sólo la manera de encontrar sus antecedentes y obras, y unas pocas referencias que presentan perspectivas generales


+ Bentall, Richard P., www.bangor.ac.uk/psychology/


+ Breggin, Peter R., www.breggin.com


+ Cohen, David, ssph.fiu.edu/social_work/faculty_cohen.html


+ Kirsch, Irving, www2.hull.ac.uk/science/psychology/our_staff/academics/irving_kirsch.aspx


+ Masson, Jeffrey M., Juicio a la psicoterapia (1988), Cuatro Vientos, Santiago, 1991


+ Moncrieff, Joanna, www.criticalpsychiatry.co.uk


+ Mosher, Loren R., www.moshersoteria.com


+ Parker, Ian, www.discourseunit.com/


+ Parker, Ian, Revolution in Psychology (2007), Pluto Press, Londres, 2007


+ Parker, Ian, et. al., Deconstructing Psychopathology (1995), SAGE Publications, Londres, 1999


+ Whitaker, Robert, www.madinamerica.com/madinamerica.com/Bio.html


ii. Artículos que presentan una pequeña historia y trazan perspectivas son


+ Rissmiller, David J.; Rissmiller, Joshua H., “Evolution of the Antipsychiatry Movement into mental health consumerism”, en Psychiatric Services, Vol. 57 (2006), N° 6, pág. 863-866, disponible en línea en ps.psychiatryonline.org


+ Hopton, John, “The future of critical psychiatry”, en Critical Social Policy, Vol. 26 (2006), N° 1, pág. 57-73


+ Double, Duncan, “The limits of psychiatry”, en British Medical Journal, Vol. 324 (2002), N° 7342, pág. 900-904


+ Leifer, Ronald, “The medical model as the ideology of therapeutic state”, en The Journal of Mind and Behavior, Vol. 11 (1990), edición especial, Nº 3-4, pág. 247-258


c. Sobre historia de la medicina y medicina crítica

1. Libros

+ Burnet, Macfarlane, Natural History of infectious disease (1953), Cambridge University Press, Cambridge, 1962. He usado la tercera edición (1962), y la cuarta, en que aparece como coautor David O. White (1972), Cambridge University Press, Cambridge, 1974.


+ Diamond, Jared, Guns, Germs and Steel: A short history of everybody for the last 13,000 years (1997), W. W. Norton & Co., 1997. He usado la versión castellana, Armas, gérmenes y acero, Mondadori, Barcelona, 2006.


+ Illich, Ivan, Limits to medicine. Medical nemesis: the expropriation of health (1976), Penguin Books, New York, 1981. He usado la versión original, en inglés, y también la traducción al castellano disponible en línea en www.ivanillich.org.mx/Linemes.htm


+ Lederman, Walter, Una historia personal de las bacterias (2007), RIL editores, Santiago, 2007


+ McNeill, William H., Plagas y Pueblos (1976), Siglo XXI, Madrid, 1984.


+ McKeown, Thomas, The role of medicine. ¿Dream, mirage or nemesis? (1979), Basil Blackwell, Oxford, 1982.


+ Mettler, Cecilia C., edición de Mettler, Fred A., History of Medicine (1947), The Blakiston Company, Toronto, 1947. He usado la edición especial hecha por The Classics of Medicine Library, Alabama, 1986.


2. Artículos

+ He revisado sistemáticamente los artículos contenidos en los Proceedings de los encuentros anuales History of Medicine Days (2001-2010), de la Facultad de Medicina de la Universidad de Calgary, Canadá, disponibles en línea en el sitio de la Universidad, homhcp.ucalgary.ca/hmd


+ Conrad, Peter, “Medicalization and social control”, en Annual Review of Sociology, Vol. 18 (1992), pág. 209-232


+ Cohen, Henry, “The evolution of the concept of disease”, en Proceeding of the Royal Society of Medicine, Vol. 48 (1953), pág. 155-160


+ Ehrenreich, Barbara, English, Deirdre, Witches, midwives & nurses (1973), Feminist Press, 2010


+ Kraupl Taylor, F., “A logical analysis of disease concepts” en Comprehensive Therapy, Vol. 24 (1983), N° 1, pág. 35-48


d. Sobre la validación científica del saber médico

1. Libros

+ Jay Gould, Stephen, La falsa medida del hombre (1981), Orbis, Buenos Aires, 1988


+ Uttal, William R., Psychomythics, Sources of artifact and misconceptions in scientific psychology (2003), Lawrence Erlbaum Publishers, New Jersey, 2003


2. Artículos

+ Chan, An-Wen, et. al., “Empirical evidence for selective reporting of outcomes in randomized trials. Comparison of protocols to published articles”, en Journal of American Medical Association, Vol. 291 (2004), N° 20, 26 Mayo 2004, pág. 2457-2465


+ Fuhg-Berman, Adriane J., “The haunting of medical journals: how ghostwriting sold ‘HRT’”, en PLoS Medicine, Vol. 7 (2010), N° 9, pág. 1-11


+ Gervas, Juan; Pérez Fernandez, Mercedes, “Uso apropiado de la medicina basada en pruebas: revisión de diez artículos recientes”, en Actualización en Medicina de Familia, Vol. 1, N° 1 (2005), pág. 46-56, disponible en línea en www2.amf-semfyc.com


+ Hill, Austin Bradford, “The clinical trial”, en The New England Journal of Medicine, Vol. 27 (1952), N° 4, pág. 113-119


+ Lacasse, Jeffrey R.; Leo, Jonathan, “Ghostwriting at elite academic medical centers in the United States”, en PLoS Medicine, Vol. 7 (2010), N° 2, pág. 1-4


+ Miller, Franklin G.; Wendler, David, “Deception in research on the placebo effect”, en PLoS Medicine, Vol. 2 (2005), N° 9, pág. 853-859


+ Morabia, Alfredo; Porta, Miguel, “Causalidad y epidemiología”, en Investigación y Ciencia, Julio 2008, pág. 62-71


+ Mosher, David, et. al., “Preferred reporting ítems for systematic reviews and meta-analysis: the PRISMA statement”, en PLoS Medicine, Vol. 6 (2009), N° 7, pág. 1-6


+ Rose, Goeffrey, “Individuos enfermos y poblaciones enfermas”, traducción castellana del original aparecido en International Journal of Epidemiology, Vol. 14 (1985), pág. 32-38


+ Rothwell, Peter M., “Subgroup analysis in randomized controlled trials”, en The Lancet, Vol. 365 (2005), pág. 176-186


+ Sackett, David L., et al., “Evidence based medicine: what it is and what it isn't”, en British Medical Journal, Vol. 312 (1996), editorial del ejemplar del 13 de Enero, pág. 71-72


+ Spector, Reynold, Vesell, Elliot S., “A rational approach to the selection of useful drugs for clinical practice”, en Pharmacology, Vol. 65 (2002), pág. 57-61


+ Spector, Reynold, Vesell, Elliot S., “Pharmacology and statistics: recommendations to strengthen a productive partnership”, en Pharmacology, Vol. 78 (2006), pág. 113-122


+ Spector, Reynold, “Progress in the search for ideal drugs”, en Pharmacology, Vol. 64 (2002), pág. 1-7


+ Thornley, Ben; Adams, Clive, “Content and quality of 2000 controlled trials in schizophrenia over 50 years”, en British Medical Journal, Vol. 317 (1998), N° 7167, 31 Octubre 1998, pág. 1181-1184


+ Timmermans, Stefan; Mauck, Aaron, “The promises and pitfall of evidence-based medicine”, en Health Affairs, Vol. 24 (2005), N° 1, pág. 18-28


3. Sitios en Internet

i. Una enorme cantidad de información sobre los modos de validación del saber médico se pueden encontrar disponibles bajo la licencia Creative Commons, en el sitio de la James Lind Library, dedicada especialmente a ello, en www.jameslindlibrary.org. El sitio cuenta con un manual de unas cien páginas, en castellano, dirigido a todo público.


+ Evans, Imogen; Thorton, Hazel; Chalmers, Iain, “Cómo se prueban los tratamientos. Una mejor investigación para una mejor atención de salud” (2006), publicado por la Organización Panamericana de la Salud, 2010


e. Sobre medicalización e industria médica

1. Artículos

i. Sobre el tráfico de enfermedades (disease mongering)


+ PLoS Medicine Abril de 2006 (Vol. 3, N° 4), en línea en www.plosmedicine.org.


+ British Medical Journal (Vol. 324, N° 7342), edición del 13 de Abril de 2002


+ Gestión Clínica y Sanitaria, en www.iiss.es/gcs


ii. Sobre medicalización en general


+ Davis, Peter, “Health care as a risk factor”, en Canadian Medical Association Journal, Vol. 170 (2004), N° 11, 24 Mayo 2004, pág. 1688-1689


+ Gervas, Juan; Pérez Fernández, Mercedes, “Los daños provocados por la prevención y por las actividades preventivas”, en Revista de Innovación Sanitaria y Atención Integrada, Vol. 1 (2009), N° 4, pág. 1-8, disponible en línea en pub.bsalut.net/risai


+ Gervas, Juan; Pérez Fernández, Mercedes; González de Dios, Javier, “Problemas prácticos y éticos de la prevención secundaria”, en Revista Española de Salud Pública, Vol. 81 (2007), N° 4, Julio – Agosto 2007, pág. 345-352


+ Johanson, Richard; Newburn, Mary; Macfarlane, Alison, “Has the medicalisation of childbirth gone too far?” en British Medical Journal, Vol. 324 (2002), N° 7342, 13 Abril 2002, Pág. 892-895


+ Márquez, Soledad, Meneu, Ricard, “La medicalización de la vida y sus protagonistas”, en Gestión Clínica y Sanitaria, Vol. 5, N° 2, (2003), pág. 47-53. En línea en www.iiss.es/gcs/gestion16.pdf


+ Meador, Clifton K., “The art and science of nondisease”, en The New England Journal of Medicine, Vol. 272 (1965), N° 2, pág. 92-95


+ Morell Sixto, ME, et. al., “Disease mongering, el lucrativo negocio de la promoción de enfermedades”, en Revista Pediatría de Atención Primaria, Vol. XI (2009), N° 43, pág. 491-512


+ Parry, Vince, “The art of branding a condition”, en Medical Marketing and Media, Vol. 38 (2003), N° 5, Mayo 2003, pág. 43-49


+ Phillips, Christine B., “Medicine goes to school: teachers as sickness brokers for ADHD”, en PLoS Medicine, Vol. 3, N° 4, e182, disponible en www.plosmedicine.org


+ Pinheiro, Marcio V., “The selling of clinical psychiatry in America”, en Hospital and Community Psychiatry, Vol. 43 (1992), N° 2, pág. 102-112


+ Relman, Arnold S., “The new medical industrial complex”, en The New England Journal of Medicine, Vol. 303 (1980), N° 17, 23 octubre 1980, pág. 963-970


+ Smith, Richard, “In search of “non-disease”, en British Medical Journal, Vol. 324 (2002), N° 7342, pág. 883-885


+ Spielmans, Glen L.; Parry, Peter I., “From evidence based medicine to marketing based medicine: evidence from internal industry documents” en Journal of Bioethical Inquiry, Vol. 7 (2010), N° 1, pág. 13-29


+ Zola, Irving Kenneth, “Medicine as an institution of social control”, en The Sociological Review, Vol. 20, N° 4, (1972), pág. 487-509


f. Sobre el modelo médico en Neurología

1. Libros

+ Uttal, William R., The New Phrenology, The limits of localizing cognitive processes in the brain (2001), The MIT Press, Cambridge, 2001


+ Uttal, William R., The immeasurable mind, The real science of psychology (2007), Prometheus Books, Nueva York, 2007


+ Uttal, William R., Neuroscience in the courtroom, What every lawyer should know about ten mind and the brain (2009), Lawyers & Judges Publishing Co., Arizona, 2009


+ Valenstein, Elliot S., The war of the soups and the sparks, The discovery of neurotransmitters and the dispute over how nerves comunicate (2005), Columbia University Press, Nueva York, 2005


1. Artículos

+ Abi-Rached, Joelle M.; Rose, Nikolas, “The birth of neuromolecular gaze”, en History of the Human Science, Vol. 23 (2010), N° 1, pág. 11-36


+ Appelbaum, Paul S., “The new lie detectors: neuroscience, deception, and the courts”, en Psychiatric Services, Vol. 58 (2007), N° 4, pág. 460-462, disponible en ps.psychiatryonline.org


+ Brenninkmeijer, Jonna, “Taking care of one’s brain: how manipulating the brain changes people’s selves”, en History of the Human Science, Vol. 23 (2010), N° 1, pág. 107-126


+ Harpaz, Yehouda, “Replicability of cognitive imaging of the cerebral cortex by PET and fMRI, a survey of recent litarature”, (2001, última revision 2009), disponible, junto a una serie de artículos del mismo autor, crítico de las técnicas de observación del cerebro más recientes, en www.human-brain.org


+ Kennedy, John L., “A possible artifact in electroencephalography”, en The Psychological Review, Vol. 66, N° 6, (1959), pág. 347-352


+ Khoshbin, Laura S., Khoshbin, Shahram, “Imaging the mind, minding the image: an historical introduction to brain imaging and the law”, en American Journal of Law & Medicine, Vol. 33 (2007), pág. 171-192


+ Kulynych, Jennifer, “Psychiatric Neuroimaging evidence: a high-tech crystal ball?” en Stanford Law Review, Vol. 49 (1996), pág. 1249-1270


+ Langlitz, Nicolas, “The persistence of the subjective in neuropharmacology: observations of contemporary hallucinogen research”, en History of the Human Sci., Vol. 23 (2010), N° 1, pág. 37-57


+ Morse, Stephen J., “Brain overclaim syndrome”, en The Ohio State Journal of Criminal Law, Vol. 3 (2006), pág. 397-412


+ Rose, Nikolas, “’Screen and intervene’: governing risky brains”, en History of the Human Science, Vol. 23 (2010), N° 1, pág. 79-105


+ Salcedo-Albarán, Eduardo y de León de Beltrán, Isaac, Neuropsicología y biología del derecho (2007), está disponible en línea en www.grupometodo.org


+ Vrecko, Scott, “Neuroscience, power and culture”, en History of the Human Science, Vol. 23 (2010), N° 1, pág. 1-10


+ Vul, Edward, et. al., “Puzzlingly high correlations in fMRI studies of emotion, personality, and social cognition”, en Perspectives in Psychological Science, Vol. 4 (2009), N° 3, pág. 274-286


+ Zilles, Karl, Amunts, Katrin, “Una nueva cartografía del cerebro”, en Mente y Cerebro, N° 46, Enero-Febrero 2011 y Zimmer, Carl, “Cien billones de conexiones”, en Investigación y Ciencia (Scientific American), N° 414, Marzo 2011, pág. 29-33. Dos artículos representativos de lo que la neurología actual promete aún hoy en día para un futuro incierto, a pesar de que se cree que ya lo ha conseguido desde hace varias décadas.


g. Sobre la aplicación del modelo médico a la psiquiatría

1. Libros

+ Cohen, David, ed., Challenging the Therapeutic State, critical perspectives on Psychiatry and the Mental Health System (1990), en The Journal of Mind and Behavior, número especial, Vol. 11, Nº 3-4


+ Fisher, Seymour; Greenberg, Roger P., The scientific credibility of Freud’s theories and therapy (1977), Columbia University Press, Nueva York, 1985. Contiene el estudio original de Fisher y Greenberg


+ Fisher, Seymour; Greenberg, Roger P., eds., The scientific evaluation of Freud’s theories and therapy (1978), Basic Books, Nueva York, 1978. Contiene una selección de lecturas anexas al estudio de Fisher y Greenberg de 1977


+ Fisher, Seymour; Greenberg, Roger P., eds.: From placebo to panacea, putting psychiatric drugs to the test (1997), John Wiley & Sons, New York, 1997


+ Johnstone, Lucy, Users and abusers of Psychiatry (1989), Routledge, Londres, 2000


+ Kirsch, Irving, The Emperor’s New Drugs (2010), Basic Books, Nueva York, 2010


+ Linares, Juan Luis: La historia clínica en el manicomio: el pasaporte de la locura (1976), Anagrama, Barcelona, 1976


+ Llyod, Gwynedd; Otead, Joan; Cohen, David, eds.: Critical new perspectives on ADHD, Routledge, Londres, 2006


+ Moncrieff, Joanna, The myth of the chemical cure: a critique of psychiatric drug treatment (2008). He usado la edición revisada, Palgrave, Macmillan, Londres, 2009


+ Read, John, Mosher, Loren R., Bentall, Richard P., eds., Modelos de Locura (2004), Herder, Barcelona, 2006. He usado esta edición castellana. La versión original es Models of Madness, Routledge, Nueva York, 2004


+ Shorter, Edward, Before Prozac. The troubled history of mood disorders in Psychiatry (2009), Oxford University Press, Oxford, 2009


+ Shorter, Edward; Healy, David, Shock Therapy, a history of electroconvulsive treatment in mental illness (2007), Rutgers University Press, New jersey, 2007


+ Valenstein, Elliot S., Great and desperate cures. The rise and decline of psychosurgery and other radical treatments for mental illness (1986), Createspace, USA, 2010


+ Valenstein, Elliot S., Blaming the Brain. The truth about drugs and mental health (1998), The Free Press, Nueva York, 1998


+ Whitaker, Robert, Mad in America, bad science, bad medicine, and enduring mistreatment of the mentally ill (2002), Basic Books, Nueva York, 2010


2. Artículos

i. Revisiones generales


+ He revisado sistemáticamente los artículos de History of Psychiatry (1999-2011), publicación trimestral, inglesa. Su Comité Editorial está dirigido por el prestigioso psiquiatra peruano Germán E. Berríos, profesor titular en la Universidad de Cambridge.


+ He revisado sistemáticamente los artículos de The American Journal of Psychiatry, revista mensual, órgano oficial de la Asociación Psiquiátrica Americana (USA), buscando en ella por temas específicos, y revisando los últimos años.


+ He revisado sistemáticamente todos los números de la revista electrónica Prevention & Treatment, que existió entre 1997 y 2003, dedicada a discutir en torno a los procedimientos terapéuticos en psicología y psiquiatría.


+ He revisado sistemáticamente los artículos de The Journal of Mind and Behavior, en sus números entre 2000 y 2010.


ii. Sobre el debate producido por las investigaciones de Irving Kirsch en torno a la eficacia clínica de los antidepresivos a partir de los informes de las compañías farmacéuticas se puede ver


+ Todo el Vol. 5, N° 1, de Prevention & Treatment, Julio 2002


+ Todo el Vol. 6, N° 1, de Prevention & Treatment, Junio 2003, en estos dos volúmenes se encuentran los artículos iniciales, y respuestas, tanto adversas como favorables, a su vez comentadas


+ Cohen, David; Jacobs, David H., “Randomized controlled trials of antidepressants: clinically and scientifically irrelevant”, en Debates in Neuroscience, Vol. 1 (2007), pág. 44-54


+ Kirsch, I., Moore, Th. J., Scorobia, A. S, Nicholls, S., “The Emperor´s New Drugs: an analysis of antidepressant medication data submitted to the U.S. Food and Drug Administration”, en Prevention & Treatment, Vol. 5, Article 23, (2002). Este es el artículo inicial.


+ Kirsch, Irving, et. al. “Initial severity and antidepressant benefits: a meta-analysis of data submitted to the Food and Drug Administration”, en PLoS Medicine, Vol. 5 (2008), N° 2, pág. 260-268


+ McGoey, Linsey, “Profitable failure: antidepressant drugs and the triumph of flawed experiments”, en History of the Human Sciences, Vol. 23 (2010), N° 1, pág. 58-78


+ Pigott, H. Edmund, et. al., “Efficacy and effectiveness of antidepressants: current status of research”, en Psychotherapy and Psychosomatics, Vol. 79 (2010), Julio 2010, pág. 267-279


iii. Artículos especializados, tanto de críticos como de partidarios, en torno a la administración de drogas psicotrópicas


+ Belleville, Genivieve, “Mortality hazard associated with anxiolytic and hypnotic drug use in National Population Health Survey”, en La revue canadienne de psychiatrie, Vol. 55, (2010), N° 9, septiembre 2010, pág. 558-567


+ Boyle, Mary, “It's all done with smoke and mirrors. Or, how to create the illusion of a schizophrenic brain disease”, originalmente en Clinical Psychology, N° 12 (2002), Abril 2002, pág. 9-16. He usado la traducción al castellano de Pedro Díaz-Cartes, “Todo es hecho con humo y espejos. O de cómo crear la ilusión de que la esquizofrenia es una enfermedad cerebral”, disponible en línea en www.inteco.cl


+ Breggin, Peter R., “Recent US, Canadian and British regulatory agency actions concerning antidepressants induced harm to self and others: a review and analysis”, en International Journal of Risk & Safety in Medicine, Vol. 16 (2004), pág. 247-259


+ Breggin, Peter R., “Psycho stimulants in the treatment of children diagnosed with ADHD: risk and mechanism of action”, en International Journal of Risk & Safety in Medicine, Vol. 12 (1999), pág. 3-35


+ Breggin, Peter R., “The NIMH multimodal study of treatment for ADHD: a critical analysis”, en International Journal of Risk & Safety in Medicine, Vol. 13 (2000), pág. 15-22


+ Breggin, Peter R., “Intoxication Anosognosia: the spellbinding effect of psychiatric drugs”, en Ethical and Human Psychology and Psychiatry, Vol. 8 (2006), N° 3, pág. 201-215


+ Breggin, Peter R., “Suicidality, violence and mania caused by selective serotonin reuptake inhibitors (SSRIs): a review and analysis”, en International Journal of Risk & Safety in Medicine, Vol. 16 (2004), pág. 31-49


+ Coghill, Dave, “Attention-deficit hyperactive disorder: should we believe the mass media or peer reviewed literature?” en Psychiatric Bulletin, Vol. 29 (2009), pág. 288-291


+ Delgado, Pedro L., et. al., “Serotonin Function and the Mechanism of Antidepressant Action. Reversal of Antidepressant-Induced Remission by Rapid Depletion of Plasma Tryptophan”, en Archives of General Psychiatry, Vol. 47 (1990), N° 5, Mayo 1990, Pág. 411-418


+ Delgado, Pedro L., et. al., “Serotonin and the neurobiology of depression, effect of tryptophan depletion in drug free depressed patients” en Archives of General Psychiatry, Vol. 51 (1994), N° 11, noviembre 1994, pág. 865-874


+ Delgado, Pedro L.; Moreno, Francisco A., “Role of norepinephrine in depression”, en Journal of Clinical Psychiatry, Vol. 61 (2000), Suppl. 1, pág. 5-12


+ Delgado, Pedro L., “How antidepressants help depression: mechanisms of action and clinical response”, en Journal of Clinical Psychiatry, Vol. 65 (2004), Suppl. 4, pág. 25-30


+ Delgado, Pedro L., “Monoamine depletion studies: implications for antidepressant discontinuation syndrome”, en Journal of Clinical Psychiatry, Vol. 67 (2006), Suppl. 4, pág. 22-26


+ Flora, Stephen Ray; Bobby, Sarah Elizabeth, “The bipolar bamboozle”, en Skeptical Inquirer, Vol. 32 (2008), N° 5, pág. 41-45


+ Harris, Margaret, et. al., “The impact of mood stabilizers on bipolar disorder: the 1890s and 199s compared”, en History of Psychiatry, Vol. 16 (2005), N° 4, pág. 423-434


+ Healy, David, “Neuroleptics and psychic indifference: a review”, en Journal of the Royal Society of Medicine, Vol. 82 (1989), Octubre 1989, Pág. 615-619


+ Healy, David, et. al., “Antidepressants and violence: problems at the interface of medicine and law”, en PLoS Medicine, Vol. 3 (2006), N° 9, pág. 1478-1487


+ Lacasse, Jeffrey R.; Leo, Jonathan, “Serotonin and depression: a disconnect between the advertisements and scientific literature”, en PLoS Medicine, Vol. 2, N° 12, e392, (2005)


+ Mathew, Sanjay J.; Charney, Dennis S., “Publication bias and the efficacy of antidepressants”, editorial de American Journal of Psychiatry, Vol. 166 (2009), N° 2, pág. 140-145


+ Mayes, Rick; Rafalovich, Adam, “Suffer the restless children: the evolution of ADHD and pediatric stimulant use, 1900-1980”, en History of Psychiatry, Vol. 18 (2007), N° 4, pág. 435-457


+ Míguez, María Noel: Los hijos de la Rita Lina (2006), trabajo de investigación del Grupo de Estudio sobre Discapacidad del Departamento de Trabajo Social, de la facultad de Ciencias Sociales, de la Universidad de la República. Disponible en línea en www.rau.edu.uy/fcs/dts/Gedis/adasuritalina.pdf


+ Moncrieff, Joanna, Cohen, David, “Do antidepressants cure or create abnormal brain states?” en PLoS Medicine, Vol. 3 (2006), N° 7, pág. 961-965


+ Moncrieff, Joanna, “Does antipsychotic withdrawal provoke psychosis?” en Acta Psychiatrica Scandinava, Vol. 114 (2006), N° 1, pág. 3-13


+ Moncrieff, Joanna, “The antidepressant debate”, en British Journal of Psychiatry, Vol. 180 (2002), pág. 193-194


+ Moncrieff, Joanna; Cohen, David, “How do psychiatric drugs work?”, en British Medical Journal, Vol. 338 (2009), N° 7710, 27 Junio 2009, Pág. 1535-1537


+ Moncrieff, Joanna, “An investigation into precedents of modern drug treatment in psychiatry”, en History of Psychiatry, Vol. 10 (1999), pág. 475-490


+ Moncrieff, Joanna, “A critique of the dopamine hypothesis of schizophrenia and psychosis”, en Harvard Review of Psychiatry, Vol. 17 (2009), N° 3, pág. 214-225


+ Patorno, Elisabetta, et. al., “Anticonvulsant medications and the risk of suicide, attempted suicide, or violent death”, en Journal of American Medical Association, Vol. 303 (2010), N° 14, 14 Abril 2010, pág. 1401-1409


+ Peiró, Salvador, et. al., “Los inhibidores selectivos de la recaptación de serotonina en la depresión infantil: un ´culebrón´que refleja importantes problemas de seguridad de los medicamentos”, en Gaceta Sanitaria, Vol. 19 (2005), N° 5, pág. 401-406


+ Pilgrim, David; Bentall, Richard, “The medicalisation of misery: a critical analysis of the concept of depression”, en Journal of Mental Health, Vol. 8 (1990), N° 3, pág. 261-274


+ Whitaker, Robert, “The case against antipsychotic drug: a 50-year record of doing more harm than good”, en Medical Hypotheses, Vol. 62 (2004), pág. 5-13


iv. Artículos especializados sobre las terapias extremas en la psiquiatría del siglo XX


+ Acharya, Hernish J., “The rise and fall of the frontal lobotomy”, en The Proceedings of the 13th Annual History of Medicine Days, de la Facultad de Medicina de la Universidad de Calgary, pág. 32-41, Marzo 2004


+ Doroshow, Deborah B., “Performing a cure for schizophrenia: insulin coma therapy on the wards”, en Journal of history of medicine and allied sciences, Vol. 62 (2006), N° 2, pág. 213-243


+ Fink, Max, “Meduna and the origins of convulsive therapy”, en American Journal of Psychiatry, Vol. 141 (1984), pág. 1034-1041


+ Frank, Leonard Roy, “Electroshock: death, brain damage, memory loss and brainwashing”, en The Journal of Mind and Behavior, Vol. 11 (1990), Nº 2-3, pág. 489-512


+ Jones, Kingsley, “Insulin coma therapy in schizophrenia”, en Journal of the Royal Society of Medicine, Vol. 93 (2000), pág. 147-149


+ Passione, Roberta, “Italian psychiatry in an international context: Ugo Cerletti and the case of electroshock”, en History of Psychiatry, Vol. 15 (2004), N° 1, pág. 83-104


+ Read, John; Bentall, Richard, “The effectiveness of electroconvulsive therapy: A literature review”, en Epidemiologia e Psichiatria Sociale, Vol. 19 (2010), N° 4, pág. 333-347


+ Sabbatini, Renato, “The history of psychosurgery”, en Brain & Mind, Electronic Magazine on Neuroscience, N° 2 (1997), disponible en línea en www.cerebromente.org.br


+ Sabbatini, Renato, “The history of shock therapy in psychiatry”, en Brain & Mind, Electronic Magazine on Neuroscience, N° 4 (1998), disponible en línea en www.cerebromente.org.br


+ Swayze, V.W., “Frontal leukotomy and related psychosurgical procedures in the era before antipsychotics (1935-1954): A historical overview”, en American Journal Psychiatry, Vol. 152 (1995), N° 4, pág. 505-515


h. Artículos sobre el diagnóstico psiquiátrico y el etiquetamiento

i. Manual de Diagnóstico de la APA


+ He revisado sistemáticamente las siguientes ediciones del Diagnostic and Statistical Manual of Mental Disorders (DSM), publicado por el Comité sobre Nomenclatura y Estadística de la American Psychiatric Association (APA)


- APA, DSM-I, 1952, edición en inglés


- APA, DSM-II, 1968, edición en inglés


- APA, DSM-III, 1980, edición en inglés


- APA, DSM-IV, 1995, edición castellana publicada por Masson S.A., Barcelona, 1995


ii. Historia del DSM, críticos y partidarios


+ Compton, Wilson M.; Guze, Samuel, “The neo-Kraepelinian revolution in psychiatric diagnosis”, en European Archives of Psychiatry and Clinical Neuroscience, Volume 245 (1995), Numbers 4-5, pág. 196-201


+ Cooper, Rachel, “¿What is wrong with DSM?” en History of Psychiatry, Vol. 15 (2004), N° 1, pág. 5-25


+ Decker, Hannah S., “How Kraepelinian was Kraepelin? How Kraepelinian are the neo-Kraepelinian? From Emil Kraepelin to DSM-III”, en History of Psychiatry, Vol. 18 (2007), N° 3, pág. 337-360


+ Greene, Talya; “The Kraepelinian dichotomy: the twin pillars crumbling?”, en History of Psychiatry, Vol. 18 (2007), N° 3, pág. 361-379


+ Grob, Gerald N., “Origins of DSM-I: A study in appearance and reality”, en American Journal of Psychiatry, Vol. 148 (1991), N° 4, pág. 421-431


+ Jablensky, Assen, “Living in a Kraepelinian world: Kraepelin’s impact on modern psychiatry”, en History of Psychiatry, Vol. 18 (2007), N°3, pág. 381-388


+ Mayes, Rick; Horwitz, Allan, “DSM-III and the revolution in the classification of mental illness”, en Journal of the History of the Behavioral Science, Vol. 41 (2005), N° 3, pág. 249-267


+ Segal, Jonathan H., “Erotomania revisited: from Kraepelin to DSM-III”, en American Journal of Psychiatry, Vol. 146 (1989), N° 10, Octubre 1989, pág. 1261-1266


+ Shepherd, Michael, “Kraepelin and modern psychiatry”, en European Archives of Psychiatry and Clinical Neuroscience, Vol. 245 (1995), pág. 189-195


+ Wilson, Mitchell, “DSM-III and the transformation of American Psychiatry: a history”, en American Journal of Psychiatry, Vol. 150 (1993), N° 3, Marzo 1993, pág. 399-410


iii. Polémicas en torno al DSM-V


+ Frances, Allen, “A warning sign on the road to DSM-V: beware of its unintended consequences”, en Psychiatric Times, Vol. 26 (2009), N° 8, 26 de Junio 2009


+ Schatzberg, Alan F., et. al., “Setting the record straight: A response to Frances commentary on DSM-V”, en Psychiatric Times, Vol. 26 (2009), N° 8, 1 de Julio 2009


+ Spitzer, Robert, “DSM-V transparency: fact or rhetoric?”, en Psychiatric Times, Vol. 26 (2009), N° 3, 6 de Marzo 2009


+ Spitzer, Robert, “APA and DSM-V: empty promises”, en Psychiatric Times, Vol. 26 (2009), N° 8, 2 de Julio 2009


+ Greenberg, Gary, “Inside the Battle to Define Mental Illness”, en Wired, 27 Diciembre 2010, en línea en www.wired.com/magazine/2010/


iv. Teoría del etiquetamiento


+ Boisvert, Charles M.; Faust, David, “Effects of label ‘schizophrenia’ on causal attributions of violence”, en Schizophrenia Bulletin, Vol. 25 (1999), N° 3, pág. 479-491


+ Loring, Marti; Powell, Brian, “Gender, race, and DSM-III: A study of the objectivity of psychiatric diagnostic behavior”, en Journal of Health and Social Behavior, Vol. 29 (1988), N° 3, pág. 1-22


+ Martínez Urionabarrenetxea, Koldo, “Los derechos de los gay, homosexuales y lesbianas: 25 años de salud mental”, en El País, edición impresa para País Vasco del 2 de Enero de 1999


+ Mirowsky, John, “Subjetive boundries and combinations in psychiatric diagnoses”, en The Journal of Mind and Behavior, Vol. 11 (1990), N° 3-4, pág. 407-423


+ Moncrieff, Joanna, “Psychiatric diagnosis as a political device”, en Social Theory & Health, Vol. 8 (2010), N° 4, pág. 370-382


+ Rosenhan, David L., “On being sane in insane places”, en Science, Vol. 179, (1973), pág. 250-258


+ Ruscio, John, “Diagnoses and the behaviors they denote. A critical evaluation on the labeling theory of mental illness”, en The Scientific Review of Mental Health Practice, Vol. 3 (2004), N° 1, pág. 1-22


+ Spitzer, Robert, “The diagnostic status of homosexuality in DSM-III: A reformulation of the issues”, en American Journal of Psychiatry, Vol. 138 (1981), N° 2, pág. 210-215


+ Spitzer, Robert, “On pseudoscience in science, logic in remission and psychiatric diagnosis: a critique of Rosenhan’s ‘On being sane in insane places’”, en Journal of Abnormal Psychology, Vol. 84 (1975), N° 5, pág. 442-452


i. Referencias sobre movimientos de usuarios e información útil

i. Movimientos de usuarios

+ Ablechild, www.ablechild.org (en inglés), información y crítica de la medicamentación de los trastornos psicológicos diagnosticados en niños, en particular el “déficit atencional”


+ Citizen Commission on Human Right, www.cchr.mx (en castellano);


- el sitio original es www.cchr.org (en inglés)


+ Freedom Center, www.freedom-center.org (en inglés y en castellano)


+ Hearing Voices, www.hearing-voices.org (en inglés)


+ Mental Patients Liberation Front, www.mplf.org (en inglés)


+ MindFreedom, www.mindfreedom.org (en inglés)


+ The International Community for Hearing Voices, www.intervoicesonline.org (inglés y castellano)


+ The Icarus Project, www.theicarusproject.net (en inglés)


+ World Network of Users and Survivors of Psychiatry, www.wnusp.net (en inglés)


ii. Sitios de colectivos de psiquiatría crítica

+ Critical Psychiatry, www.criticalpsychiatry.co.uk/ (en inglés)


+ Mad in America, www.madinamerica.com (en inglés)


+ Soteria, www.moshersoteria.com (en inglés)


+ The Antipsychiatry Coalition, www.antipsychiatry.org


+ The Journal of Mind and Behavior, www.umaine.edu/jmb/ (en inglés)


iii. Sitios con información útil para víctimas y afectados por la psiquiatría

+ MedlinePlus, www.nlm.nih.gov/medlineplus/spanish/ (en castellano), contiene la información oficial, aceptada por el National Health Institute, NHI, de Estados Unidos, sobre todos los fármacos que se comercializan habitualmente. Es muy útil para conocer qué contienen realmente las recetas psiquiátricas, y qué cuidados y precauciones el psiquiatra “olvidó” advertir.


+ En Internet hay muchas guías destinadas a ayudar a los afectados a reducir su dependencia de drogas psiquiátricas, la mayoría en inglés. Nuevamente me alegro de cerrar esta Bibliografía, tal como lo he hecho con el cuerpo principal del texto, con la que me parece más clara y útil:


- “Discontinuación del uso de drogas psiquiátricas: una guía basada en la reducción del daño”, publicada también en castellano, bajo licencia Creative Commons, para ser distribuida libremente, por The Icarus Project y Freedom Center, disponible en www.theicarusproject.net.

  1. Erving Goffman, Asylums, Essays on the Social Situation of Mental Patients and Other Inmates (1961), Doubleday, Nueva York, 1961. Michel Foucault, Histoire de la folie à l'âge classique - Folie et déraison, Plon, Paris, 1961; Naissance de la clinique - une archéologie du regard médical, PUF, Paris, 1963.
  2. David Cooper, ed., The dialectic of liberation, Penguin Books, Londres, 1968. Se pueden encontrar los servicios que presta la Philadelphia Association hoy en día en su sitio web, www.philadelphia-association.co.uk.
  3. Una argumentación curiosa en que el término “adicción” es usado de manera arbitraria para unas drogas, consideradas ilegales, y no para otras, que según la teoría actúan prácticamente de la misma manera, pero que son reconocidas como un negocio legal.
  4. Tercera versión del Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM-III) de la Asociación Americana de Psiquiatría (APA). Hoy se considera vigente, desde 2000, la cuarta versión revisada, conocida por la sigla DSM-IV-TR. Está en las fases finales de preparación la versión DSM-V. Ver, más adelante, en el capítulo V. b.
  5. Koldo Martínez Urionabarrenetxea hace un detallado relato de las protestas de la comunidad gay, y sus resultados sobre las categorizaciones del DSM, en El País, edición impresa para País Vasco del 2 de Enero de 1999. Se puede encontrar en línea buscando a través de Google “Los derechos de los gay, homosexuales y lesbianas: 25 años de salud mental”
  6. Ver, Marius A. Romme, et. al., “Coping with hearing voices: an emancipatory approach”, en British Journal of Psychiatry, Vol. 161, N° 1, pág. 99-103. La principal fuente de información es el sitio web, www.hearing-voices.org. Un amplio recuento de las formas que asume esta experiencia, en los más diversos ámbitos, y las maneras en que son abordadas, se puede encontrar en John Watkins, Hearing Voices, a common human experience (1998), Michelle Anderson Publishing, Melbourne, 2008. Ver también el sitio de INTERVOICES, The International Network for Training, Education and Research into Hearing Voices, en www.intervoicesonline.org.
  7. Una detallada historia del crecimiento de los grupos de sobrevivientes de la psiquiatría se puede encontrar en el sitio web del Mental Patients Liberation Front, www.mplf.org. El sitio de la World Network of Users and Survivors of Psychiatry, es www.wnusp.net. También se puede consultar la numerosa documentación contenida en los sitios de dos organizaciones de diversa radicalidad y grado de cobertura: MindFreedom, en www.mindfreedom.org; y The Antipsychiatry Coalition, en www.antypsychiatry.org.
  8. Ver, Ivan Illich, Limits to medicine. Medical nemesis: the expropriation of health (1976), Penguin Books, New York, 1981. También la visión, mucho más moderada, de Thomas McKeown, The role of medicine. ¿Dream, mirage or nemesis? (1979), Basil Blackwell, Oxford, 1982.
  9. Clifton K. Meador, “The art and science of nondisease”, en The New England Journal of Medicine, Vol. 272, N° 2, pág. 92-95, 1965.
  10. Thomas Szasz, The Myth of Mental Illness: Foundations of a Theory of Personal Conduct (1961), Harper & Row, Nueva York, 1974. Hay traducción castellana: El mito de la enfermedad mental, Amorrortu, Buenos Aires, 1973.
  11. Se pueden encontrar muchos de sus artículos en línea en www.breggin.com. Dos de sus muchos libros, claves en su argumentación, son Peter R. Breggin, Talking Back to Ritalin: What Doctors Aren't Telling You About Stimulants and ADHD (2001), Perseus Books, Cambridge 2001; y Peter R Breggin y G. R. Breggin, Talking Back To Prozac: What Doctors Aren't Telling You About Today's Most Controversial Drug (1994), St. Martin's Press, Nueva York, 1994
  12. Ver la edición especial del The Journal of Mind and Behavior, Vol. 11, N° 4-5, 1990, titulada “Challenge the Terapeutic State: Critical Perspectives on Psychiatry and the Mental Health System”, compilada por el psiquiatra David Cohen, de la Universidad de Montreal, y con textos de los principales antipsiquiatras de los años 80.
  13. Ver, de manera preliminar, Ray Moynihan y David Henry, The fight against Disease Mongering: generating knowledge for action, en Plos Medicine, Vol. 3 Issue 4, Abril 2006, en www.plosmedicine.org.
  14. El artículo clásico al respecto es Arnold S. Relman, The new medical-industrial complex, en The New England Journal of Medicine, Vol. 303, N° 17, 23 Octubre 1980, pág. 963-970.
  15. Como explicaré en la Bibliografía brevemente comentada, al final de este libro, dada la enorme influencia del punto de vista médico en la opinión común, y considerando el directo contraste entre esta afirmación y ese modelo, los críticos tienen que asumir, aunque en buena lógica no les corresponda, el “peso de la prueba”, y se ven obligados a ofrecer a cada paso un respaldo autorizado a sus afirmaciones, cosa que el gremio psiquiátrico rara vez aporta en su práctica cotidiana. Debido a que esta Introducción, está dedicada sólo a enunciar el argumento general, no recurriré a las citas y referencias que serían necesarias. Sí lo haré, en cambio, de manera detallada, en el desarrollo de cada capítulo. Como referencia preliminar, sin embargo, se puede ver, en este punto específico, la masiva argumentación crítica aportada por William R. Uttal en The New Phrenology, The limits of localizing cognitive processes in the brain, The MIT Press, Cambridge, 2001.
  16. Los estudios más completos sobre la validación científica de las terapias psicoanalíticas son los de Seymour Fisher, Roger Greenberg: The scientific credibility of Freud’s theories and therapy (1977), Columbia University Press, Nueva Cork, 1985; y Seymour Fisher, Roger P. Greenberg, ed.: The scientific evaluation of Freud’s theories and therapy (1978), Basic Books, Nueva Cork, 1978. En el primero exponen sus conclusiones, revisando una a una las hipótesis freudianas que les parecen susceptibles de confrontación científica. En el segundo hacen una antología de estudios empíricos sobre cada aspecto considerado. El estudio encargado por la propia Asociación Psicoanalítica Internacional a cargo de Fonagy, P., Jones, E. E., Kächele, H., Krause, R., Clarkin, J., Perron, R., Gerber, A., & Allison, E.: An open door review of outcome studies in psychoanalysis (Second Edition 2001), llega a la conclusión de que el psicoanálisis simplemente no puede, por sus características teóricas y terapéuticas, ser sometido a un proceso de validación de acuerdo a los estándares habituales de la medicina basada en la evidencia.
  17. Un detallado y muy actualizado recuento de los efectos secundarios de los fármacos que afectan el sistema nervioso, y de las evidencias empíricas sobre las que pretenden estar fundados, se puede encontrar en Joanna Moncrieff, The myth of the chemical cure. A critique of psychiatric drug treatment, Palgrave Macmillan, London, Revised Edition, 2009.
  18. Un excelente análisis de los problemas que implica la medicamentación de niños en el tratamiento del ADHD se puede encontrar en Carol K. Whalen, Barbara Henker: Stimulant Pharmacotherapy for ADHD, an analysis of progress, problems, and prospect, compilado en Seymour Fisher, Roger P. Greenberg, ed.: From Placebo to Panacea, putting psychiatric drugs to the test, John Willey & Sons Inc, Nueva Cork, 1997. Contiene una enorme cantidad de referencias útiles.
  19. Ver, Carlos Pérez Soto: Sobre un concepto histórico de ciencia, Lom, Santiago de Chile, 1° edición, 1998, Apéndice N° 2, En defensa del sentido común.
  20. Ver, Carlos Pérez Soto, Proposición de un marxismo hegeliano, Editorial Arcis, Santiago, 2008, y Carlos Pérez Soto, Para una crítica del poder burocrático, Lom, Santiago, 2° ed. 2008.
  21. He usado como base para esta breve revisión histórica a William H. McNeill: Plagas y Pueblos (1976), Siglo XXI, Madrid, 1984, y Macfarlane Burnet: Natural History of infectious disease (1953), Cambridge University Press, Cambridge, 1962. También a la monumental History of Medicine (1947), de Cecilia C. Mettler, editada por Fred A Mettler, The Blakiston Company, Toronto, 1947.
  22. Hay, por supuesto excepciones notables. Peter Brueghel, el viejo, que pintó de manera realista a personas comunes. Hieronimus Bosch, que muestra en la realidad de los cuerpos lo que él consideraba huellas del pecado. Los dibujos de rostros de Leonardo da Vinci, cuyo realismo cruel es tan impactante que por varios siglos se los consideró como caricaturas.
  23. Ver, De Keersmaecker, J., "The Mystery of Lambic Beer", Scientific American, Agosto 1996, pp. 74-80. En castellano en Investigación y Ciencia, Octubre 1996. Ver, también, Bert L. Vallee, “El alcohol en el mundo occidental”, Investigación y Ciencia, Agosto 1998, pág. 56-61.
  24. Hay que considerar que la borrachera profunda sólo es posible gracias a las bebidas de alcohol destilado, descubiertas por los árabes hacia el año 1000, o a las cervezas de alto contenido alcohólico, sólo fabricadas desde fines del siglo XIX. La borrachera primero, y luego el alcoholismo, sólo llegaron a convertirse en problemas de salud pública por su contraste con la disciplina corporal necesaria para el trabajo industrial.
  25. El último de estos procesos, y el más destructivo en la historia humana, es el derrumbe de la población precolombina de América como efecto de la llegada de los conquistadores europeos. Ver, Natasha Radhika Dang, “How medicine shaped history: the epidemiological conquest of Latin America”, disponible en línea en The Proceedings of the 14th Annual History of Medicine Days, de la Facultad de Medicina de la Universidad de Calgary, pág. 231-240, Marzo 2005
  26. Abu Ali al-Husayn ibn Abd Allah ibn Sina, (980-1037) y Muhammad ibn Abd Allah ibn Said ibn Ali ibn Ahmad al-Salmani, (1313-1374), llamado Lisan al-Din ibn al-Jatib.
  27. Ver T.O. Diesner, “Viroides”, Investigación y Ciencia, Marzo 1981; Stanley B. Prusiner, “Detección de la enfermedad de las vacas locas”, Investigación y Ciencia, Septiembre 2004.
  28. No está demás insistir en que, en términos epistemológicos, esta es una situación completamente general. Nunca el valor de un modelo depende de que se adecúe cien por ciento a su objeto, cosa que en las ciencias empíricas es, por lo demás, imposible. Manteniendo una semejanza general y esquemática, su rendimiento proviene más bien de su capacidad de dar cuenta de situaciones nuevas, o de anunciarlas, y también de su capacidad de sugerir respuestas o perspectivas justamente allí donde parece no cumplirse.
  29. De manera característica, es la postura defendida por Ivan Illich en Limits to medicine, Marion Boyars, Londres, 1976.
  30. Ver Juan Gérvas, Mercedes Pérez Fernández: “Los daños provocados por la prevención y por las actividades preventivas”, Revista de Innovación Sanitaria y Atención Integrada, Vol. 1, N° 4, 2009, disponible en línea en www.risai.org. También, Juan Gérvas Camacho, Mercedes Pérez Fernández, Javier González de Dios: “Problemas prácticos y éticos de la prevención secundaria”, Revista Española de Salud Pública, Vol. 81, N° 4, pág. 345-352, 2007
  31. Tal como en el caso de la prevención secundaria, la reducción de la prevención terciaria también está marcada por los intereses de la medicalización. Sin esa presión interesada, la prevención terciaria debería tener como una de sus tareas prioritarias el aumentar la calidad de vida del paciente, en un enfoque global de la enfermedad en que el médico es sólo un elemento, muy importante, de una acción curativa conjunta.
  32. Arnold S Relman, “The new medical industrial complex”, en The New England Journal of Medicine, Vol. 303, N° 17, 23 octubre 1980, pág. 963-970.
  33. Ver, Soledad Márquez, Richard Meneu: “La medicalización de la vida y sus protagonistas”, en Gestión Clínica y Sanitaria, Vol. 5, N° 2, verano 2003.
  34. Ver, F. Miguel, “Factores de riesgo: una nada inocente ambigüedad en el corazón de la medicina actual”, en Atención Primaria, Vol. 22, pág. 585-595, 1998.
  35. Un muy buen ejemplo de la inutilidad clínica de la preocupación individualizada por los factores de riesgo se puede encontrar en J. Jimeno Mollet, et. al. “Variabilidad en la estimación del riesgo coronario en diabetes mellitus tipo 2”, Atención Primaria, Vol. 35, Pág. 30-36, 2005. Disponible en línea. Los autores siguen durante diez años las condiciones de salud de un grupo de pacientes, midiendo periódicamente en ellos los indicadores que se consideran factores de riesgo coronario.
  36. Esta es la llamada “Paradoja de la prevención de Rose”, formulada por Geoffrey Rose en “Sick individuals and sick populations”, en International Journal of Epidemiology, Vol. 14, pág. 32-38, 1985. Hay traducciones al castellano disponibles en varios lugares de Internet.
  37. Ver, Juan Gérvas y Mercedes Pérez, “Los daños provocados por la prevención y las actividades preventivas”, en RISAI, Vol. 1, N° 4, 2009, disponible en línea en www.risai.org.
  38. Todo el número, plenamente disponible en línea, de PLoS Medicine de Abril de 2006 (Vol. 3, N° 4) está dedicado al tema. Se encuentra en www.plosmedicine.org. También toda la edición del 13 de Abril de 2002 del British Medical Journal (Vol. 324, N° 7342), varios de sus artículos están disponibles. Es interesante, sobre las técnicas mercantiles usadas, ver Vince Parry, “The art of branding a condition”, en Medical Marketing and Media, Vol. 38, N° 5, Mayo 2003.
  39. Ver, Christine B. Phillips, “Medicine goes to school: teachers as sickness brokers for ADHD”, en PLoS Medicine, Vol. 3, N° 4, e182, disponible en www.plosmedicine.org.
  40. Ver el duro artículo de Deborah Cohen y Phillip Carter en British Medical Journal, publicado el 3 de Junio de 2010 (BJM, Vol. 340, c2912), donde, además de denunciar los conflictos de interés de los médicos que han formulado las políticas estratégicas de la OMS sobre pandemias, se quejan de que el comité de emergencia designado para la gripe porcina sea… secreto, es decir, ha sido designado sin que se pueda evaluar los eventuales lazos de sus miembros con la industria farmacéutica.
  41. Ver, Richard Johanson, Mary Newburn, Alison Macfarlane, “Has the medicalisation of childbirth gone too far?” en British Medical Journal, Vol. 324, Pág. 892-895, 13 Abril 2002.
  42. Ver C. Laine, “The anual physical examination: nedless ritual or necessary routine?” en Annals of Internal Medicine, Vol. 136, Pág. 701-703, 2002. También, M.H. Charap, “The periodic health examination: genesis of myth”, en Annals of Internal Medicine, Vol. 95, pág. 733-735, 1981.
  43. Ver al respecto la argumentación, ética y científica, en los múltiples documentos disponibles en www.condignidad.org. Hay varios sitios en Internet, con posturas diversas en torno al tema.
  44. Ver, una excelente introducción en, Jerry Fodor, “El problema mente – cuerpo”, Investigación y Ciencia, N° 54, Marzo 1981, pág. 62-75. También, Jerry Fodor, La explicación psicológica, introducción a la filosofía de la psicología (1968), Cátedra, Madrid, 1980.
  45. Ver, Francisco Varela, De cuerpo presente, las ciencias cognitivas y la experiencia humana, Gedisa, Barcelona, 1982
  46. Ver, John Searle, Paul Churchland: Un debate sobre inteligencia artificial (1990), Investigación y Ciencia, Marzo 1990, pág. 9-24; John Searle: Dos biólogos y un físico en busca del alma (1996), Mundo Científico, Julio - Agosto 1996, pág. 645-669; Hubert Dreyfus, Simon Dreyfus: Construcción de una mente, modelaje de un cerebro (1988), en Filosofía de la Inteligencia Artificial, Fondo de Cultura Económica, 1995
  47. He usado como texto básico para esta sección, junto a muchas otras referencias, The New Phrenology, the limits of localizing cognitive processes in the brain, de William R. Uttal, editado por The MIT Press, Cambridge, 2001. Uttal es un neurólogo de carrera, investigador y académico, muy ajeno a las preocupaciones de la Antipsiquiatría, que se ha ocupado en todas sus publicaciones de lo que podría llamarse epistemología de la neurología, es decir, la reflexión sobre las bases conceptuales de sus métodos y teorías. A partir de este y otros textos he buscado y leído las fuentes primarias a las que refiere. Algunas de ellas las he indicado en las notas y en la Bibliografía, al final.
  48. En un jocoso artículo de 1980 el paleontólogo Stephen Jay Gould (1941-2002) relata la discusión entre Paul Broca y Louis Pierre Gratiolet, respectivamente a favor y en contra de la tesis de que la inteligencia dependía del volumen del cerebro. Todo esto en términos puramente científicos, y en el marco de la Sociedad Antropológica de París, a lo largo de varias semanas, entre febrero y junio de 1861. Se puede agregar a ello que Broca creía también firmemente que la inteligencia dependía de la rugosidad de las circunvoluciones cerebrales. Quizás se habría sentido desconcertado al saber que el delfín nariz de botella, cuyo cuerpo no es mucho mayor que el del hombre alcanza volúmenes cerebrales mucho mayores que los 1500 cc promedio de la especie humana, y la corteza de su cerebro tiene muchas más circunvoluciones que la nuestra. O, también, que la ballena azul suele tener un cerebro del orden de los 7800 cc. Ver, Stephen Jay Gould, El pulgar del panda (1980), Orbis, Buenos Aires, 1986, capítulos 13 y 14.
  49. Ver, Stephen Jay Gould, La falsa medida del hombre (1981), Orbis, Buenos Aires, 1988, capítulo II.
  50. William R. Uttal dedica todo un capítulo a examinar las diversas teorías formuladas en los siglos XIX y XX sobre este asunto, para concluir, en la página 145, a partir de lo que los principales psicólogos que han abordado el problema declaran, que no hay, e incluso que podría no ser posible, una taxonomía de los procesos cognitivos. Ver, W. R. Uttal, The new phrenology, The MIT Press, Cambridge, 2001, pág. 89-146.
  51. Los textos originales al respecto son: R. W. Sperry, “Mental unity following surgical disconnection of cerebral hemispheres”, The Harvey Lectures Series, Vol. 62, pág. 293-323, New York Academic Press, 1968; M. S. Gazzaniaga, “Right hemisphere language following brain bisection”, American Psychologist, Vol. 38, pág. 525-537, 1983; Robert Efron, The decline and fall of hemispheric specialization, Erlbaum, Hillsdale, NJ, 1990.
  52. Mary Wollstonecraft Godwin (1797-1851). Frankenstein o el moderno Prometeo fue publicada en 1818.
  53. Muy cerca nuestro está la controversia entre Humberto Maturana y su escuela (Francisco Varela, Juan Carlos Letelier, Jorge Mpodozis) y la de David Hunter Hubel y Torsten Wiesel, en torno a si se puede comprobar que neuronas individuales o grupos de neuronas estrechamente localizadas codifiquen colores, formas o brillos. Hubel y Wiesel recibieron el Premio Nobel en 1981 por sus contribuciones. Muchos dudan de que esto sea un respaldo probatorio.
  54. El artículo de John L. Kennedy, que no es siquiera pariente del más famoso John F. Kennedy, presidente de los Estados Unidos, es “A possible artifact in electroencephalography”, y está en The Psychological Review, Vol. 66, N° 6, pág. 347-352, noviembre 1959.
  55. Ver, por ejemplo, TIME Magazine, 19 de Enero de 2007; 17 de Julio de 1995; 19 de Abril de 2007; Newsweek, 15 de agosto de 2005.
  56. El término “tomografía” indica, literalmente, que se ha logrado una imagen en que se pueden distinguir partes. En este sentido simple se puede hablar de tomografías obtenidas con rayos X, con emisión de positrones (PET), o a través de resonancia magnética nuclear (RMI) o, incluso, a través de sonido, como en las ahora habituales ecografías. De la misma manera, la expresión CAT, que indica que la imagen ha sido tratada con técnicas computacionales, podría ser aplicada a cualquiera de estas técnicas. Pero, por motivos quizás de comodidad, se suele usar la expresión CAT sólo para las tomografías obtenidas con rayos X, y las otras son referidas, respectivamente, como PET, RMI, fRMI y ecografía. Todas, sin embargo, usan hoy tecnologías CAT.
  57. Es sombríamente divertido, sin embargo, imaginar las innumerables “maravillas” que podría haber encontrado Paul Broca con semejantes herramientas. Insistamos sobre esta anomalía epistemológica: por única vez en los últimos doscientos años una herramienta que permite evidencia incidental NO es usada para proclamar grandes descubrimientos. La razón es simple y un poco triste… había varias otras herramientas, más “espectaculares” con las que se podía hacerlo.
  58. Se han desarrollado, desde hace unos pocos años, PET que usan trazadores como el (18F) altanserin para efectuar recuentos de receptores específicos para ciertos neurotransmisores, como la serotonina. La cadena de supuestos necesaria para aceptar sus resultados es aún más compleja que la que describo aquí y, como tal, mucho más susceptible de los errores sistemáticos que enumeraré. Un punto central en su acción es que, tal como en todos los exámenes PET, lo que es medido directamente y de manera real es flujo sanguíneo, no la sustancia misma.
  59. Hay que notar que este problema se presenta cuando lo que se quiere detectar es actividad neuronal. Cuando se buscan tumores o lesiones las huellas registradas son mucho más vivibles porque tienen que ver más con los contornos de la irrigación (la forma) que con el proceso de metabolización (la actividad). Una diferencia de mismo tipo se presenta en la técnica de resonancia magnética nuclear funcional (fRMI).
  60. El más agudo crítico de las falencias al momento de replicar tanto las imágenes PET como las fMRI, o replicar unas respecto de las otras, es Yohuda Harpaz, quien ha tenido que publicar sus artículos en Internet ante el rechazo sistemático que ha encontrado en los comités editoriales de las revistas especializadas, fuertemente compometidos con las supuestas bondades de estos métodos. Ver, por ejemplo, “Replicability of cognitive imaging of the cerebral cortex by PET and fMRI, a survey of recent literature”, 1999, en su propio sitio de Internet. Respecto de su caso, ver el comentario de W. R. Uttal sobre el espíritu imperante en la corriente principal de la neurología actual, en The New Phrenology, Apéndice B, pág. 227-231. Un caso digno de examinar a la luz de la idea de paradigma formulada por T. S. Kuhn.
  61. Hay que decir que correlaciones empíricas cercanas a uno son muy raras en la ciencia experimental en casi cualquier disciplina, lo que representa la curiosa anomalía de que la neurología, criticada tradicionalmente por la incertidumbre de sus resultados empíricos, se habría convertido de pronto en la más exacta de las ciencias. Ver, Edward Vul, et. al., “Puzzlingly high correlations in fMRI studies of emotion, personality, and social cognition”, en Perspectives in Psychological Science, Vol. 4, N° 3, pág. 274-286, 2009.
  62. Ver, por ejemplo, Jennifer Kulynych, “Psychiatric Neuroimaging evidence: a high-tech crystal ball?” en Stanford Law Review, Vol. 49, pág. 1249-1270, 1996. En William R. Uttal: Neuroscience in the Courtroom, en Lawyers & Judges Publishing Company, Tucson, Arizona, 2008, se puede encontrar una amplia bibliografía crítica, actualizada hasta 2008.
  63. Ver al respecto la oscura y tragicómica historia de fraude y terror de los usos de técnicas psicológicas y psiquiátricas con fines militares en Guerra, persona y destrucción (1978), de Peter Watson, Nueva Imagen, México, 1982. Ver, también, la detallada historia de las drogas psicotrópicas escrita por Edward Shorter, Before Prozac. The troubled history of mood disorders in Psychiatry (2009), Oxford University Press, Oxford, 2009.
  64. Para efectos de la argumentación que desarrollo en los Capítulos siguientes, es importante saber, sin embargo, que la intervención de sustancias químicas como neurotransmisores en la sinapsis, desarrollada a partir de experimentos hechos por farmacólogos, sólo fue generalmente aceptada por los neurólogos a mediados de los años 60, es decir, una década después de la introducción de medicamentos que supuestamente operan sobre ellas para, desde allí, producir cambios en el comportamiento. Esto significa que toda la “primera generación” de “antipsicóticos” y neurolépticos fue lanzada al mercado sin la base científica que hoy se le atribuye. Ver, al respecto, una excelente historia de esta polémica entre farmacólogos y neurólogos en Elliot S. Valenstein, The war of the soups and the sparks. The discovery of neurotransmitters and the dispute over how nerves communicate (2005), Columbia University Press, Nueva York, 2005.
  65. Ver, por ejemplo, al respecto, Jeffrey R. Lacasse y Jonathan Leo, “Serotonin and depression: a disconnect between the advertisements and scientific literature, en PLoS Medicine, Vol. 2, N° 12, e392, 2005. Disponible en línea en www.plosmedicine.org.
  66. J. J. Schildkraut, “The catecholamine hypothesis of affective disorders. A review of supporting evidence”, en Journal of neuropsychiatry and clinical neuroscience, Vol. 7, pág. 524-533, 1965. A. Coppen, “The biochemistry of affective disorders”, en British Journal of Psychiatry, Vol. 13, pág. 1237-1264, 1967.
  67. Joanna Montcrieff examina el problema, y cita variados estudios críticos, en “The antidepressant debate”, British Journal of Psychiatry, Vol. 180, pág. 193-194, 2002, y ha agregado muchas otras referencias en sus sucesivas publicaciones, que citaré más adelante.
  68. Ver, Pedro Delgado, et. al., “Serotonin Function and the Mechanism of Antidepressant Action. Reversal of Antidepressant Induced Remission by Rapid Depletion of Plasma Tryptophan”, en Archives of General Psychiatry, Vol. 47 (1990), N° 5, Mayo 1990, Pág. 411-418, y Pedro Delgado, et. al., “Serotonin and the neurobiology of depression, effect of tryptophan depletion in drug free depressed patients” en Archives of General Psychiatry, Vol. 51 (1994), noviembre 1994, pág. 865-874
  69. Psychiatric News, Vol. 38, N° 9, pág. 48, 2 de Mayo de 2002.
  70. Ver al respecto la contundente argumentación, sobre la base de la información más actual, de Linsey McGoey, en “Profitable failure: antidepressant drugs and the triuph of flawed experiments”, en History of the Human Sciences, Vol. 23, N° 1, pág. 58-78, 2010.
  71. Ver, S. Heres, et. al. “¿Why olonzapine beats resperidone, resperidone beats quetiapine and quetiepine beats olonzapine?“, en American Journal of Psychiatry, Vol. 163, N° 2, pág. 185-194, 2006
  72. Ver Eick H. Turner, et. al., “Selective publication of anti depressive trails and his influence on apparent efficacy”, en New England Journal of Medicine, Vol. 358, pág. 252-260, 2008.
  73. Ver, Ben Thornley y Clive Adams, “Content and quality of 2000 controlled trials in schizophrenia over 50 years”, en British Medical Journal, Vol. 317 (1998), N° 7167, 31 Octubre 1998, pág. 1181-1184
  74. He apelado para este brevísimo recuento básicamente, entre otras fuentes, a la notable History of Medicine (1947), un clásico de C.C. Mettler, editada por F.A. Mettler, The Blakistan Company, Philadelphia, 1986. También a la Historia de la Psiquiatría (1983), de Jacques Postel y Claude Quétel, Fondo de Cultura Económica, México, 1987.
  75. Y la competencia podría ser dura. hay que considerar la primera mitad del siglo XIV, y la cruzada contra judíos y moros en España, que son otros dos momentos estelares de la cristiandad.
  76. Ver el estudio clásico de Barbara Ehrenreich y Deirdre English, Witches, midwives & nurses (1973), Feminist Press, 2010.
  77. Críticas a las ilusiones homeopáticas se pueden encontrar en Robert L. Park, Alternative Medicine and the Laws of Physics, en Skeptical Inquirer, Vol. 21, N° 5, 1997. Un debate científico, con defensores y detractores, se puede encontrar en la revista Mundo Científico (traducción castellana de La Recherche), N° 193, sepiembre 1998, pág. 35-61.
  78. Ver Nicolau Eimeric y Francisco Peña: El manual de los inquisidores, Muchnik, Barcelona, 1983
  79. El caso de Emma Eckstein, cuyo rostro resultó desfigurado de manera permanente por una operación a la nariz perpetrada por Fliess, se puede seguir a través de la correspondencia entre Sigmund Freud y Wilhelm Fliess, editadas por Jeffrey M. Masson: The Complete Letters of Sigmund Freud to Wilhelm Fliess, Harvard University Press, Harvard, 1985. Masson desarrolló un alegato contra el psicoanálisis a partir de éste y otros casos similares en que la actitud de Freud parece alejarse notoriamente del más elemental sentido común, en Jeffrey Moussaieff Masson: The assault on truth, Freud’s supresión of the seduction theory (1984), Pocket Books, Nueva Cork, 1998. En una versión resumida y divertida, el caso de Emma es expuesto por Martin Gardner en su artículo Freud, Fliess y la nariz de Emma, que se puede encontrar en la antología La nueva era, Alianza, Madrid, 1990.
  80. Postel y Quetel, en su historia de la psiquiatría, se encargan de destruir el mito que muestra a Pinel como un humanista que liberó a los locos de sus cadenas. Muestran no sólo que “liberar de las cadenas” era ya una práctica habitual antes de su intervención, sino que sostenía la legitimidad de cualquier medio que no fuera usado de manera “irracional” o “arbitraria” o “como producto de un arrebato” para “asustar” a los enfermos y hacerlos inclinarse ante el “principio de autoridad”. La razonabilidad de Pinel disminuyó, incluso, con su seguidor Jean-Étienne Dominique Esquirol (1772-1840), y terminó por desaparecer desde 1840 en adelante. Ver Postel y Quetel, Historia de la Psiquiatría (1983), Fondo de Cultura Económica, México, 1987, pág. 144-153.
  81. Citado en M. Pérez Heredia, M. Brea-Rivero y R. M. Martínez-Piédrola, “Origen de la Terapia Ocupacional en España”, Revista de Neurología, Vol. 45, N° 11, pág. 695-698, 2007.
  82. Clifford W. Beers, A mind that found itself (1908), se puede encontrar disponible en línea, en la Biblioteca Gutenberg, en www.gutenberg.org/ebooks/11962
  83. Prolongada de manera bastante infame por la caracterología de la mente criminal de Cesare Lombroso (1835-1909), que aún se usa de manera habitual en los cuarteles de policía y aeropuertos en la mayor parte del mundo. Mientras la frenología de Gall atendió casi exclusivamente a las formas y dimensiones del cráneo, la fisiognómica, mucho más sofisticada, se preocupó además de las formas y expresiones faciales, y de múltiples otras proporciones corporales.
  84. Entre sus muchas ocurrencias, Quetelet, se dio el trabajo de medir a todos los soldados del ejército de Napoleón III. Considerando estos datos de manera estadística, descubrió que todas las medidas del cuerpo humano se distribuyen según la famosa campana de Gauss. A partir de esto llegó a la conclusión de que el máximo de cada una de estas curvas, que indicaba la medida media, correspondía a las longitudes del cuerpo de Adán, el único hombre arquetípico creado por Dios, el que luego, por variaciones en la alimentación y la crianza, se desvía, en los seres humanos concretos, y daba lugar a las distribuciones estadísticas que había constatado. También, después de cuidadosas estadísticas históricas, desarrolló una fórmula, que aún se usa, para calcular el día preciso en que, cada año, florecen los tulipanes en Holanda.
  85. Las ideas de Galton sobre el carácter hereditario del genio están en Hereditary genius: an inquiry into its laws and consequences (1869), que se puede encontrar en línea en www.galton.org/books. Es importante notar que Galton llegó a ser condecorado como Caballero justamente por su creación y difusión de la eugenesia.
  86. El texto más completo, con los argumentos a favor y en contra de la eugenesia es el de Daniel J. Kevles, In the Name of Eugenics: Genetics and the Uses of Human Heredity (1985), Harward University Press, 1998.
  87. Para una descripción y crítica de esta dicotomía ver, Talya Greene, “The Kraepelinian dichotomy: the twin pillars crumbling?”, en History of Psychiatry, Vol. 18, N° 3, pág. 361-379, 2007
  88. Ver una revión hecha por partidarios en, Wilson M. Compton and Samuel B. Guze, “The neo-Kraepelinian revolution in psychiatric diagnosis”, en European Archives of Psychiatry and Clinical Neuroscience, Volume 245, Numbers 4-5, pág. 196-201, 1995. Y críticas en el mismo texto de Talya Greene referido en la cita anterior.
  89. Para toda esta sección quizás la mejor fuente, llena de referencias a las fuentes originales, es Eliot S. Valenstein, Great and desesperate cures: the rise and decline of psychosurgery and others radical treatments for mental illness (1987), CreateSpace, 2010. Valenstein es Profesor Emérito de Psicología y Neurociencia en la Universidad de Chicago.
  90. Hay una buena historia de la lobotomía se puede encontrar en disponible en línea, Hernish J. Acharya, “The rise and fall of the frontal lobotomy”, en The Proceedings of the 13th Annual History of Medicine Days, de la Facultad de Medicina de la Universidad de Calgary, pág. 32-41, Marzo 2004
  91. Una evaluación de los presuntos éxitos de la lobotomía, catastróficamente tardía, se puede ver en V. W. Swayze II, “Frontal leukotomy and related psychosurgical procedures in the era before antipsychotics (1935-1954): A historical overview”, en American Journal Psychiatry, Vol. 152, N° 4, pág. 505-515, 1995
  92. Notar que su razonamiento parte desde el consecuente: que los pacientes esquizofrénicos tengan más células gliales que las personas normales NO significa que ese exceso sea la causa de la esquizofrenia, es decir, justamente NO significa que aumentando esas células la esquizofrenia tenga que disminuir. Pero bueno, la lógica nunca ha sido el fuerte del gremio psiquiátrico.
  93. Para una historia y crítica de la terapia basada en la administración masiva de insulina ver, Deborah B. Doroshow, “Performing a cure for schizophrenia: insulin coma therapy on the wards”, en Journal of history of medicine and allied sciences, Vol. 62, N° 2, pág. 213-243, 2006; Max Fink, “Meduna and the origins of convulsive therapy”, en American Journal of Psychiatry, Vol. 141, pág. 1034-1041, 1984; Kingsley Jones, “Insulin coma therapy in schizophrenia”, en Journal of the Royal Society of Medicine, Vol. 93, pág. 147-149, 2000.
  94. Ver, Vernon H. Mark y Frank R. Ervin, Violence and the brain, Harper & Row, 1970. Es interesante traducir el título de otro de los libros del doctor Mark: “Poder cerebral: un completo programa neuroquirúrgico para mantener y reforzar la salud cerebral a lo largo de su vida”.
  95. El caso de Ugo Cerletti es examinado por Thomas Szasz en su artículo ¿A quién sirve la psiquiatría?, que se puede encontrar en Franco y Franca Basaglia, Eds.: Los crímenes de la paz (1975), Siglo XXI, México, 1987. El testimonio del doctor Lucio Bini, que acompañó a Cerletti en todos estos experimentos, y cómo esta técnica se difundió por el mundo, son descritos detalladamente en el libro de Edward Shorter y David Healy, Shock Therapy, a history of electroconvulsive treatment in mental illness (2007), Rutgers University Press, New jersey, 2007. Críticas a la supuesta eficacia de esta técnica se pueden encontrar en el reciente meta análisis realizado por John Read y Richard Bentall, “The effectiveness of electroconvulsive therapy: A literature review”, en Epidemiologia e Psichiatria Sociale, Vol. 19, N° 4, pág. 333-347, 2010. También en, Leonard Roy Frank, “Electroshock: death, brain damage, memory loss and brainwashing”, en The Journal of Mind and Behavior, Vol. 11, Nº 2-3, 1990, pág. 489-512. La versión estándar sobre el carácter y las posibilidades de esta terapia, compartida por la mayor parte de la profesión, se puede encontrar en Allan Tasman, Jerald Kay, Jeffrey A. Lieberman, eds.: Psychiatry, Wiley & Sons, 2008, en el capítulo 92, “Electroconvulsive Therapy”, de Matthew V. Rudofer, Michael E. Henry y Harold A. Sackheim, pág. 1865-1901.
  96. Ver, New York Times, “FDA is studying the risk of Electroshock devices”, 23 enero 2011, en línea en www.nytimes.com. También en New York Times, “The quiet comeback of Electroshock Therapy”, 2 agosto 1990.
  97. Ver, por ejemplo, Michel Foucault, El nacimiento de la clínica (1963), Siglo XXI, Buenos Aires, 1979. También, José Alberto Mainetti, “La medicalización de la vida”, en Electroneurobiología, Vol. 14, N° 3, pág. 71-89, 2006, disponible en línea en electroneubio.secyt.gov.ar/index2.htm
  98. Constitución de la Organización Mundial de la Salud (OMS), acordada en 1946, en vigor desde 1948, versión que recoge las modificaciones hechas hasta 2006, disponible en línea en www.who.int/governance/eb/who_constitution_sp.pdf
  99. Ver, Clifton K. Meador, “The art and science of nondisease”, en The New England Journal of Medicine, Vol. 272, N° 2, pág. 92-95, 1965. Ver, Richard Smith, “In search of “non-disease”, en British Medical Journal, Vol. 324, N° 7342, pág. 883-885.
  100. Un texto clásico en torno a este punto es Irving Kenneth Zola, “Medicine as an institution of social control”, en The Sociological Review, Vol. 20, N° 4, pág. 487-509, noviembre 1972. Para el estado actual de la discusión se puede ver, Peter Conrad y Joseph W. Schneider, Deviance and medicalization: from badness to sickness, Temple University Press, 1992.
  101. Ver, de manera ejemplar, las críticas a la práctica médica en el texto ahora clásico de Ivan Illich, Limits to medicine. Medical nemesis: the expropriation of health (1976), Penguin Books, New York, 1981. También la visión, mucho más moderada, de Thomas McKeown, The role of medicine. ¿Dream, mirage or nemesis? (1979), Basil Blackwell, Oxford, 1982.
  102. Esto es lo que he llamado, en otro texto, una concepción “somatopsíquica” de la subjetividad moderna. Ver al respecto, Carlos Pérez Soto, Sobre la condición social de la psicología, LOM, 2° edición, 2008
  103. Para una crítica del saber como recurso de legitimación burocrático ver, Carlos Pérez Soto, Proposición de un marxismo hegeliano, Editorial Arcis, Santiago, 2008. También, Carlos Pérez Soto, Para una crítica del poder burocrático, Lom, Santiago, 2° edición, 2008.
  104. Ver, Carlos Pérez Soto, Sobre la condición social de la psicología, LOM, 2° edición, 2008
  105. Por eso tengo que mecanografiar yo mismo este texto.
  106. Ver, Ronald Leifer, “The medical model as the ideology of therapeutic state”, en The Journal of Mind and Behavior, Vol. 11 (1990), edición especial, Nº 3-4, pág. 247-258
  107. Afortunadamente está en castellano una excelente recopilación de artículos críticos en torno a este cuadro, históricamente tan significativo. La he citado varias veces: John Read, Loren Mosher, David Cohen, eds., Modelos de Locura (2004), Herder, Barcelona, 2006.
  108. David Hume, Tratado de la naturaleza humana (1739), traducción de Félix Duque, Editora Nacional, Madrid, 1981; Karl Popper, La lógica de la investigación científica (1937), Tecnos, Madrid, 1973.
  109. Hay que ser estricto en este punto: Hume no afirmaba, en general, que nada puede ser demostrado. Lo que sostenía era que las proposiciones empíricas no podían serlo. Las conexiones entre proposiciones formales en cambio sí son susceptibles de demostración. Por esto pudo demostrar formalmente algo sobre un asunto empírico.
  110. Ver, para este punto, Carlos Pérez Soto, Sobre un concepto histórico de ciencia, Lom, 2° ed., 2008
  111. Aclaremos, para los puristas, que una conexión condicional no equivale a una conexión causal. No sólo la primera es puramente formal y la segunda de carácter empírico sino que, justamente porque la segunda no puede ser demostrada de manera universal y necesaria, los lógicos prefieren dejarla fuera de la lógica. En términos prácticos, sin embargo, la estructura formal del argumento condicional es la misma que la de la conexión causal, y su validez se superpone y es prioritaria sobre éste. Por eso la falacia del consecuente, que es formal, afecta a todo razonamiento que quiera partir desde la afirmación de los efectos para inferir las causas.
  112. Ver Alfredo Morabia, Miguel Porta: “Causalidad y epidemiología”, Investigación y Ciencia, Julio 2008, pág. 62-71.
  113. No es fácil, por ejemplo, establecer si el alcoholismo es causado por la pobreza, o es él mismo una de las causas. En situaciones sociales es muy frecuente que el orden secuencial causa efecto no sea simple, o que las causas y los efectos interactúen entre sí. Para la claridad del modelo médico, Bradford Hill deja fuera estas situaciones complejas.
  114. La Medicina Basada en la Evidencia(Evidence Based Medicine) es un movimiento iniciado en los años 70 por A. Cochrane, J. Wennbergy, I. Illich y Th. McKewon, que se formalizó desde 1991 a partir del Evidence Based Medicine Working Group de la Universidad de Ontario. Inicialmente está inspirado en investigaciones sobre la realidad de la práctica médica, y se ha extendido hasta formar una muy amplia discusión en torno a los procedimientos de validación del saber en todos los ámbitos de la medicina. Un número completo de la revista 1Health Affairs1, dedicado al tema, con un muy buen contexto y mucha información, se puede encontrar disponible en línea, en www.healthsaffairs.org, ver el Vol. 24, N° 1 de 2005. Ver, también, Juan Gérvas, Mercedes Pérez Fernández, 1“Uso apropiado de la medicina basada en pruebas”, en Actualización en Medicina Familiar, Vol. 1, N° 1, pág. 46-56, 2005.
  115. Imogen Evans, Hazel Thorton, Iain Chalmers, “Cómo se prueban los tratamientos. Una mejor investigación para una mejor atención de salud” (2006), publicado por la Organización Panamericana de la Salud, 2010. Disponible en línea en www.jameslindlibrary.org/tt-downloads.html
  116. Ver, Carlos Pérez Soto: Sobre un concepto histórico de ciencia, Lom, Santiago, 2° Edición, 2008.
  117. Ver, Carlos Pérez Soto: Proposición de un marxismo hegeliano, Edición Universidad Arcis, Santiago, 2008.
  118. Una pregunta de este tipo, investigada hoy directamente, es la que se puede formular sobre el sentido biológico de la muerte. No todos los seres vivos mueren, ¿por qué algunos sí? Ver, al respecto, Thomas Kirkwood, “¿Por qué no somos inmortales?”, en Investigación y Ciencia, Noviembre de 2010, pág. 20-27.
  119. Además del manual proporcionado por la James Lind Library, indicado en el apartado anterior, y en un nivel algo más técnico, para toda la consideración que sigue se pueden ver, Reynold Spector y Elliot Vesell, “A rational approach to the selection of useful drugs for clinical practice”, en Pharmacology, Vol. 65 (2002), pág. 57-61; Reynold Spector, “Progress in the search for ideal drugs”, en Pharmacology, Vol. 64 (2002), pág. 1-7. También Juan Gervas y Mercedes Pérez Fernandez, “Uso apropiado de la medicina basada en pruebas: revisión de diez artículos recientes”, en Actualización en Medicina de Familia, Vol. 1, N° 1 (2005), pág. 46-56, disponible en línea en www2.amf-semfyc.com