Capítulo I
Psicobiología
Mercè Boixadós i Anglès
Ana Moreno Alcázar
Mariona Portell Vidal
Diego Redolar Ripoll
Noemí Robles Muñoz
Jaume Vives Brosa
1.Introducción al estudio del cerebro y de la mente
Hoy en día, sabemos que el sistema nervioso controla y regula la mayoría de actividades del organismo. La información de nuestro entorno es captada por diferentes tipos de receptores sensoriales distribuidos ordenadamente por nuestro cuerpo. Éstos recogen y envían la información para que sea procesada e integrada por nuestro sistema nervioso central. De igual forma, constantemente se están poniendo en marcha los complejos planes motores que se desarrollan en nuestro cerebro y que, finalmente, conllevan a la coordinación de diversos grupos musculares para permitir un determinado movimiento. El cerebro recibe, integra, procesa la información y envía diferentes señales para regular múltiples funciones en el organismo, desde la puesta en marcha de la propia conducta hasta la regulación de distintos mecanismos homeostáticos y de los sistemas endocrino e inmunológico. El sistema nervioso no sólo establece un puente de unión entre la información proveniente del medio y la respuesta que el organismo realiza para adecuarse a las demandas cambiantes del entorno, sino que nos convierte en lo que somos, subyace a nuestras emociones, a la resolución de problemas, a la inteligencia, al pensamiento, a capacidades tan humanas como el lenguaje, la atención o los mecanismos de aprendizaje y memoria.
Es necesario partir de un concepto clave que tendremos que tener presente a lo largo de los próximos apartados, y es que nuestro sistema nervioso se debe concebir como un todo con diferentes niveles de complejidad y, por tanto, con diferentes niveles de estudio y de aproximación experimental.
La unidad estructural y funcional del sistema nervioso queda fundamentalmente constituida por las neuronas y las células gliales. Se calcula que existe alrededor de 100 billones de neuronas en el sistema nervioso humano, y unas 10 veces más de células gliales. En cada una de las células, podemos distinguir diferentes componentes u orgánulos, y dentro de éstos, podemos llevar a cabo un análisis molecular y estudiar canales, receptores, e incluso el ADN neuronal. Por tanto, en un extremo tendríamos el nivel celular y molecular, y en el otro extremo de la escala tendríamos la anatomía en el nivel macroscópico, donde es posible establecer diferentes divisiones sin necesidad de recurrir a los aumentos del microscopio.

Figura 1. Diferentes niveles de estudio del cerebro humano. Cuando se analiza la anatomía cerebral, se puede abordar su estudio desde un punto de vista macroscópico o bien a través de los diferentes componentes que lo integran: las células nerviosas, partes de éstas, las sinapsis, la estructura interna de la célula, las moléculas presentes en la membrana o en el citoplasma o incluso los genes que se expresan en el tejido nervioso. (Adaptada de Rosenzweig y col., 2001).
Partiendo de la organización de nuestro sistema nervioso en diferentes niveles de complejidad estructural, es necesario atender en primer lugar a los principales elementos celulares, fisiológicos y moleculares como punto de partida para poder comprender otros niveles de organización más global, como la conformación del cerebro por núcleos, capas y vías de proyección, la estructuración de los diferentes sistemas neurales y la descripción macroscópica cerebral.
Los hombres deben saber que el cerebro es el responsable exclusivo de las alegrías, los placeres, la risa y la diversión, y de la pena, la aflicción, el desaliento y las lamentaciones. Y gracias al cerebro, de manera especial, adquirimos sabiduría y conocimientos, y vemos, oímos y sabemos lo que es repugnante y lo que es bello, lo que es malo y lo que es bueno, lo que es dulce y lo que es insípido […]. Y gracias a este órgano nos volvemos locos y deliramos, y los miedos y terrores nos asaltan […]. Debemos soportar todo esto cuando el cerebro no está sano […]. Y en este sentido soy de la opinión de que esta víscera ejerce en el ser humano el mayor poder.
Hipócrates. Sobre las enfermedades sagradas (siglo IV a. C.).
2.¿Qué es la psicobiología?
La psicobiología es la disciplina cuyo objeto de estudio es la conducta y la cognición, pero atendiendo a las bases biológicas subyacentes.
El origen de la psicobiología se circunscribe, fundamentalmente, a la década de 1950; no obstante, el estudio del sistema nervioso y de cómo éste puede explicar el comportamiento es mucho más antiguo. La publicación del libro de D. O. Hebb The Organization of Behavior (La organización de la conducta) en 1949, marcó una inflexión en la demarcación de la psicobiología como disciplina científica dentro de la neurociencia. En dicha obra, Hebb postuló un modelo sobre el funcionamiento del sistema nervioso en relación a la producción y regulación de la conducta y la cognición. En el modelo presentado por Hebb, se intentaba explicar cómo la actividad neural podría contribuir a la génesis de procesos cognitivos como el aprendizaje y la memoria, la atención, las emociones, el pensamiento complejo, etc.
Utilizando el método científico, por un lado, la psicobiología tiene como objeto de estudio la conducta, en tanto que ésta se aborda como un proceso biológico. En base a esto, desde la psicobiología interesa analizar los diferentes componentes del sistema neuroendocrino implicados, los factores genéticos y epigenéticos subyacentes, los procesos que ponen en marcha la conducta y aquellos que la controlan; incluso interesa conocer el conjunto de adaptaciones acaecidas a lo largo de la historia evolutiva que son recogidas en el acervo genético y que la modelarían.
En tanto que la conducta depende de la historia evolutiva del ser humano, el análisis de las bases biológicas de ésta en diferentes modelos animales puede proporcionar información elemental para la explicación de la conducta humana en términos biológicos. No es de extrañar, por tanto, que una buena parte de la investigación en psicobiología utilice diferentes modelos animales basándose en el establecimiento de esa correspondencia filogenética (tal como se verá en apartados posteriores).

Figura 2. La conducta humana es fruto de la evolución, con lo que la historia evolutiva desempeña un papel primordial para entender las variaciones acaecidas en el comportamiento a lo largo de la filogenia, gracias a la relación evolutiva del ser humano con otras especies. Por lo tanto, podemos destacar que el acervo genético del hombre abarca los éxitos adaptativos de sus antecesores. Asimismo, la estimulación del medio externo y del medio interno del propio organismo, elicita una respuesta en éste, cuya finalidad última es su adaptación al entorno cambiante. Entre el estímulo y la respuesta se posiciona el organismo, entendido en términos biológicos. De esta forma, la conducta permite al organismo relacionarse de forma activa con el medio. En definitiva, laconducta deriva de la actividad integrada del sistema nervioso y del sistema endocrino, mientras que los genes y todos los factores epigenéticos regulan la forma en que se organizan y responden dichos sistemas.
En definitiva, la psicobiología utiliza la metodología científica y tiene un objeto de estudio propio. Éste, por un lado, queda circunscrito a la conducta, aludiendo a las bases biológicas de ésta. Dentro del ámbito de estudio de la psicobiología, hemos de tener presente que la conducta ha de explicarse como un fenómeno contrastable, de tal forma que se puedan buscar evidencias empíricas que rechacen o acepten las hipótesis formuladas en el estudio de algunos de los aspectos relacionados con ésta. De este modo, la conducta necesariamente ha de abarcarse como una actividad observable emplazada entre unos medios determinados y un resultado o finalidad.
La psicobiología, por tanto, estudia las bases biológicas relacionando los resultados con el comportamiento. Del Abril y colaboradores (2001) definen acertadamente la conducta en términos psicobiológicos como “el conjunto de manifestaciones públicamente observables regula das por el sistema neuroendocrino, mediante las cuales el animal como un todo, en respuesta a un estímulo interno o externo, se relaciona activa y adaptativamente con el medio ambiente”. De esta definición podemos colegir que la cognición y los procesos mentales también serían susceptibles de ser abarcados por la psicobiología como objeto de estudio.
En tanto que la cognición deriva de la actividad neural, la psicobiología ha de ser capaz de estudiar los sistemas neurales cuya actividad resulta en diferentes procesos cognitivos (aprendizaje y memoria, atención, emociones, funciones ejecutivas, etc.). De forma añadida, es necesario tener presente que los procesos generados por la actividad de estos sistemas neurales son capaces de regular la propia conducta.
En definitiva, la psicobiología pretende estudiar el comportamiento observable y los procesos cognitivos como un conjunto de las fases sucesivas de un fenómeno biológico.
2.1.La psicobiología en relación a la neurociencia y la neurociencia cognitiva
Hemos de tener presente que la psicobiología se sitúa en el contexto de la neurociencia, disciplina que estudia el sistema nervioso, ubicada entre dos corrientes de obtención del conocimiento: la corriente psicológica y la corriente biológica.
El término neurociencia es joven. La Society for Neuroscience, asociación de neurocientíficos profesionales, fue fundada hace relativamente poco, concretamente en 1970. No obstante, el estudio del cerebro es tan antiguo como la propia ciencia. Históricamente, los científicos dedicados a comprender el sistema nervioso procedían de disciplinas científicas diferentes, como la medicina, la biología o la psicología. La revolución de la neurociencia se inició cuando estos científicos se dieron cuenta de que la mejor esperanza para discernir el funcionamiento del cerebro necesitaba un posicionamiento multidisciplinar, requiriendo conocimientos sobre infinidad de hechos, desde la estructura de una molécula de acetilcolina hasta la razón por la que el perro de Pavlov segregaba saliva cuando sonaba la campana. Por tanto, la unidad de estudio de la neurociencia, como disciplina, requiere de diferentes niveles de análisis, siendo, en un orden de complejidad ascendente: molecular, celular, sistémico, conductual y cognitivo. La psicobiología, en relación con la neurociencia, también intenta englobar diferentes niveles de análisis, pero siempre poniendo el énfasis en el estudio del papel del sistema nervioso, en interacción con el resto del cuerpo, sobre el control del comportamiento.

Figura 3. La psicobiología se ubica en el marco de referencia de la neurociencia y nace entre dos corrientes científicas de obtención del conocimiento: la psicológica y la biológica. No obstante, la psicobiología tiene un objeto de estudio propio y esto es lo que la desmarca de una mera intersección entre estas dos corrientes.
Asimilar los contenidos de la neurociencia posiciona a la psicobiología en un emplazamiento que le debería permitir contextualizar, entender y reflexionar sobre los diferentes mecanismos y sistemas de funcionamiento del sistema nervioso y endocrino, conociendo los diferentes métodos y estrategias utilizadas para el estudio de estas funciones, así como relacionar e integrar toda esta información funcional con sus bases fisiológicas, celulares, bioquímicas y anatómicas en relación con la producción y regulación de la conducta y la cognición.
La neurociencia cognitiva, por su parte, es un campo científico de surgimiento relativamente reciente entre dos disciplinas: la neurociencia y la psicología cognitiva. En tanto que la psicología cognitiva tiene como objeto de estudio las funciones cerebrales superiores y todas las conductas asociadas, y la neurociencia su objeto de estudio es el sistema nervioso a diferentes niveles de análisis (molecular, celular, fisiológico, etc.), la neurociencia cognitiva nace en la convergencia de estas dos disciplinas. Parte de la investigación llevada a cabo dentro del marco de la psicobiología (sobre todo la realizada con técnicas de neuroimagen), viene determinada por los principales propuestos y premisas de la neurociencia cognitiva.
3.El método científico en psicobiología
Hemos de partir del hecho irrefutable de que en el mundo existen diferentes tipos de conocimientos. El sentido común del ser humano, la magia, la religión, la filosofía etc., han proporcionado a nuestra raza diferentes fuentes de conocimiento. La ciencia ha intentado acumular y ampliar el conocimiento siguiendo un conjunto de reglas y procedimientos. Por su parte, la tecnología ha intentado aplicar dicho conocimiento a la generación de instrumentos útiles para el hombre.
El conocimiento científico en psicobiología se genera al acumular datos adquiridos mediante contrastaciones empíricas con el objetivo de obtener leyes de máxima generabilidad. El modo utilizado para llevar a cabo dicho acopio de datos es el método científico. Por ello, la caracterización del conocimiento científico puede centrarse tanto en la confección de teorías de gran calidad como en la acumulación de datos mediante la implementación de diferentes procedimientos que permitan las contrastaciones empíricas.
“Investigar es lanzar una red al mar de la intuición y esperar que la razón te guíe entre éxitos y fracasos”.
Arvid Carlsson, premio Nobel de Fisiología o Medicina del año 2000, por sus investigaciones sobre la dopamina.
El método científico parte de una premisa esencial que constituye uno de sus rasgos cardinales: la replicabilidad. En base a ésta, se pretende generar consenso dentro de la propia comunidad científica. La replicabilidad de los procedimientos, por tanto, es la característica del modo de generar el conocimiento que posibilita que cada nueva contribución pueda ser, periódicamente, contrastada por diferentes grupos de investigación.
Cuando estamos delante de un determinado experimento, nos podemos cuestionar si la investigación que hemos llevado a cabo nos proporciona las garantías suficientes de su fiabilidad. ¿Qué es la fiabilidad de una investigación? Se trata de la facultad determinada por la persistencia, a lo largo del tiempo o a lo largo de diferentes evaluaciones simultáneas, de los resultados obtenidos. Se trata, por tanto, del grado en el que se estima que, al replicar una investigación, obtendremos los mismos resultados. A mayor cantidad de medidas de control implementadas en un experimento, mayor probabilidad de que éste sea fiable.
La fiabilidad no sólo la podemos circunscribir a una investigación determinada, sino también a las medidas y evaluaciones realizadas en un mismo experimento. Cuando se llevan a cabo varias medidas, en momentos temporales diferentes o por evaluadores diferentes, y se analiza el grado de consistencia de dichas medidas, hablamos de fiabilidad temporal y de fiabilidad interjueces, respectivamente.
En el marco de la investigación en psicobiología, cuando se habla de sensibilidad de un experimento nos estamos refiriendo a la condición de la operativización de las variables, de los procedimientos utilizados y del aparataje e instrumentación implementada en el diseño experimental, para reconocer los efectos de la manipulación realizada. En el momento en que un experimento no permite detectar el efecto de los cambios en los niveles de la variables independiente, señalamos que no asume sensibilidad.
En definitiva, la psicobiología tiene un objeto de estudio propio y utiliza el mismo método que el resto de disciplinas neurocientíficas1. Por tanto, se persigue la contrastación empírica, en tanto que se formulan hipótesis para buscar evidencias empíricas que las confirmen o las refuten. De igual forma, uno de los rasgos cardinales de la investigación en psicobiología es la búsqueda de la replicabilidad.
3.1.Obtención del conocimiento
Durante el proceso de obtención del conocimiento, es posible utilizar diferentes estrategias y procedimientos. Lo que queda claro es que el eje vertebral de la obtención del conocimiento se ha de centrar en la replicabilidad.
La metodología inductiva se basa en la obtención del conocimiento mediante sucesivas observaciones para establecer una ley de ámbito lo más global posible mediante el uso de la generalización. Por tanto, este tipo de metodología se centra en la generalización de una observación del mundo real para llegar a elaborar una regla o una ley dentro de un plano más teórico.

Figura 4. El método científico en el proceso de obtención del conocimiento puede utilizar diferentes estrategias de sistematización. Por un lado, puede ir del plano teórico al plano empírico mediante el uso de argumentaciones deductivas, y por otro lado, puede partir de la experiencia para establecer una ley general (ir del plano empírico al teórico) mediante el uso de argumentaciones inductivas (figura reproducida de Portell y colaboradores, 2003).
La metodología deductiva parte de un plano teórico en base a leyes generales para extraer implicaciones a través de la lógica que puedan ser contrastadas en un plano empírico. Mediante esta metodología, es posible partir de una regla o ley elaborada mediante la razón para deducir derivaciones lógicas que puedan ser adaptables a la experiencia del mundo en el que vivimos.
La metodología hipotética-deductiva se centra en el uso tanto de argumentaciones deductivas como de argumentaciones inductivas, en función de la fase de la investigación en la que nos encontremos. De este modo, es posible partir de una teoría para deducir una consecuencia contrastable en un plano empírico, llevando a cabo observaciones que permitan corroborar o transformar los supuestos de dicha teoría. También sería posible partir de un plano empírico realizando diferentes observaciones que permitan, mediante generalización, llegar a una teoría o ley general; a partir de la elaboración de la ley, volver a realizar observaciones en el plano empírico.
Durante la obtención del conocimiento, la investigación científica sigue un proceso claramente diferenciado. En primer lugar, se necesita un problema al que poder dar una respuesta utilizando el método científico. Este problema, por tanto, ha de ser contrastable. A partir de dicho problema, se han de generar los objetivos y las hipótesis de la investigación como explicación al fenómeno (problema) que se pretende estudiar. En esta fase del proceso de investigación, se han de forjar las bases que permitan la búsqueda de evidencias empíricas que confirmen o refuten las hipótesis planeadas. De hecho, una hipótesis resulta ser una solución tentativa a un problema o fenómeno de estudio. Ésta tiene que estar formulada con un perfil claramente contrastable. Por su parte, una teoría abarca el conjunto de soluciones tentativas contrastadas (hipótesis) sobre un determinado fenómeno o ámbito de análisis.

Figura 5. Una hipótesis es una solución tentativa a un fenómeno de estudio, mientras que la teoría resulta ser el conjunto de soluciones tentativas contrastadas sobre dicho fenómeno. Entre la teoría y la hipótesis aparece un conjunto de herramientas teóricas, de un nivel intermedio, que ayudan a vincularlas.
En la generación de hipótesis, se puede establecer una jerarquía. De esta forma, las hipótesis teóricas serían las más generales. Éstas se suelen denominar, por este motivo, hipótesis generales o de sistema. En una hipótesis general, no se suelen especificar las variables que se estudiarán en la investigación. Después, vendrían las hipótesis de la investigación o hipótesis empíricas, en cuyo núcleo se derivarían variables concretas. No obstante, todavía faltaría un nivel de mayor especificidad, ya que las variables en una hipótesis empírica no se encuentran operativizadas. Las hipótesis operativas presentan un núcleo con las variables de estudio definidas de forma operativa.
Después de la elaboración de cuestiones y/o de la deducción de hipótesis contrastables, tiene que plantearse el diseño experimental que permita obtener la información necesaria. Por ello, una vez planteado el diseño a utilizar se tienen que recoger los datos de la investigación, ya sea en una situación natural o en una situación artificial, dependiendo de la metodología utilizada y de los fines perseguidos. Dicha recogida de los datos es un paso crítico y previo para el análisis de los mismos, ya que lo predeterminará. En función de cómo se recojan los datos, las técnicas de análisis estadístico serán unas u otras. Del mismo modo, si se pretende utilizar una herramienta estadística determinada a priori, será necesario recoger los datos de una forma que permita su posterior implementación en la investigación. La fase final del proceso será la posible generalización de los resultados y su comunicación al resto de la comunidad científica y a la propia sociedad.
En las fases del proceso de la investigación científica, también podemos distinguir una serie de niveles que se producirán en una continuidad determinada que implicará tanto la utilización de inducciones como de deducciones, así como la operativización y la comunicación. En un nivel teórico conceptual, se delimitará el ámbito de estudio y la pregunta a responder mediante el uso de la metodología científica. En este nivel se ubican las hipótesis teóricas, las teorías y modelos, así como las hipótesis empíricas y las consecuencias contrastables. Mediante la operativización de éstas llegamos a un nivel técnico metodológico donde se diseña el plan de la investigación y la estrategia de recogida de datos mediante un tipo concreto de metodología (experimental, cuasi-experimental, selectiva y observacional). A partir de aquí, entramos en el nivel estadístico analítico, donde se elaboran y se reúnen los datos, determinando los modelos y las pruebas estadísticas que se utilizarán para contrastar las hipótesis y obtener pruebas de significación. De este nivel, mediante el uso de la inducción se discuten y generalizan los resultados para llegar al nivel expositivo, donde se han de comunicar al resto de la comunidad científica. De la exposición y comunicación de los resultados, el proceso vuelve a su punto de partida, es decir, al nivel teórico y conceptual.

Figura 6. Fases de la investigación científica para la obtención del conocimiento. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
3.2.Evaluación del conocimiento: ¿por qué los científicos deben dudar de lo que está establecido?
La ciencia debe de dudar de todo lo establecido y debe examinarlo mediante un conjunto de procedimientos formales. Hemos de plantearnos que el conocimiento científico no es inmutable. Tiene que haber cierto dinamismo para poder avanzar y generar un acervo de conocimientos contrastados de forma empírica.
Imaginemos que hubiera sucedido si, a finales del siglo XIX, Santiago Ramón y Cajal no hubiera dudado del dogma biológico que aseguraba que el tejido nervioso era un retículo continuo que compartía el mismo citoplasma y que no presentaba células individuales. O bien imaginemos que la comunidad científica no hubiera dudado del consenso establecido sobre que las neuronas de un cerebro adulto habían perdido su capacidad mitótica y que, por tanto, la formación de nuevas neuronas era algo inverosímil en el tejido nervioso adulto. Se tiene que dudar para poder avanzar en el proceso de obtención del conocimiento. Es necesario someter a continua evaluación el conocimiento que se tiene acumulado.
Podemos destacar que, en el ámbito de la psicobiología, existen dos procedimientos claramente diferenciados para evaluar el conocimiento: la verificación y la falsación. Se trata de dos estrategias utilizadas para contrastar las hipótesis. Las hipótesis se han de contrastar, es decir, hemos de buscar evidencias empíricas que las confirmen o las rebatan. La verificación se basa en la búsqueda de datos que afirmen y confirmen la hipótesis trazada en una investigación, mientras que la falsación consiste en la búsqueda de datos que la objeten y refuten.
3.3.Variables: operativización y medida
En primer lugar es necesario definir qué es una variable. Una variable es un atributo susceptible de tomar diferentes valores que pueden ser medidos. Una vez se han identificado las variables implicadas en el núcleo de una hipótesis, se han de detallar y especificar hasta tal punto que sea posible explorarlas y medirlas. Este procedimiento de descripción y especificación de las variables se denomina operativización.
La operativización de una variable nos permite el establecimiento de un criterio de medida de la variable. En función del criterio de la escala de medida, podemos distinguir dos tipos fundamentales de variables:
1)Variables cuantitativas (discretas y continuas).
2)Variables categóricas (nominales –dicotómicas y politómicas– y ordinales). En relación a la hipótesis de una investigación, podemos distinguir:
a)Las variables que derivan directamente de la hipótesis (variables del núcleo).
b)Las variables que se encuentran en el contexto de una investigación (variables del contexto).
Dentro de las variables del núcleo, se podrán establecer diferentes tipos de relaciones. Si la relación es bidireccional, diremos que se trata de una relación simétrica, ya que las dos variables ocupan el mismo estatus. Mientras que si la relación es unidireccional, diremos que se trata de una relación asimétrica. En este caso, las variables tienen diferente estatus. En el caso de estar delante de una relación asimétrica, dentro del núcleo de una hipótesis hemos de distinguir la variable independiente (VI) y la variable dependiente (VD). La VI es aquella variable sobre la que se hipotetiza que influirá en la dependiente. En un experimento en psicobiología, es la variable manipulada. La VD, por su parte, es la variable sobre la que se hipotetiza que influirá la VI. En el proceso de una investigación, se pretende explicar las causas de su variación. En definitiva, en una hipótesis determinada de una investigación, las variables del núcleo definirán el tipo de relación que se establecerá.

Figura 7. En una hipótesis de una investigación en psicobiología, se pretende explicar las variaciones encontradas en las medidas que tenemos de un fenómeno determinado, a partir de los diferentes niveles o valores de la variable independiente. No obstante, pueden existir explicaciones alternativas. En el contexto que se lleva a cabo una investigación, se dan lugar una serie de variables que no derivan directamente de la hipótesis experimental pero que puede tener un papel importante. Algunas de estas variables extrañas pueden ser confusionistas de la investigación, en tanto que actúen como posibles explicaciones alternativas de las variaciones ocurridas en la variable dependiente o fenómeno de estudio. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
Las variables del contexto son aquellas variables extrañas que podrían influir sobre la VD. De este modo, podemos distinguir entre variables extrañas confusionistas y variables extrañas no confusionistas. Para que una variable extraña sea confusionista (presencia de espuriedad), se tienen que cumplir dos condiciones:
•En primer lugar, esta variable puede influir sobre la VD.
•En segundo lugar, los valores de la variable extraña covarían con los niveles con la VI.

Figura 8. Clasificación de las variables del núcleo y del contexto de una hipótesis. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB).
Una variable confusionista es una variable no controlada que influye sobre la VD con la propiedad de variar simultáneamente con los cambios en los niveles de la VI.
Una variable confusionista rivaliza con la VI como posible causa de las variaciones encontradas en la VD. Las variables confusionistas deben controlarse para aumentar el control interno de la investigación y de esta forma aumentar la validez.
En función del criterio del diseño de una investigación, las variables pueden dividirse en tres grandes bloques claramente diferenciados:
•Variables independientes (manipuladas o no manipuladas).
•Variables dependientes.
•Variables extrañas (confusionistas o no confusionistas).
3.4.Relación, causalidad y validez
Dentro del ámbito de la psicobiología, resulta difícil asegurar, con todas las garantías suficientes, que una variable es causa de otra. No se trata de establecer una causa y un efecto, sino de contrastar una hipótesis causal donde se defina el grado de seguridad que se tiene de que las manipulaciones acaecidas en una determinada variable son la causa de las modificaciones encontradas en otra variable.
Para hablar de causalidad en una determinada relación, se tienen que cumplir 3 criterios:
1)Por un lado, ha de existir una relación o covariación que sea significativa entre las variables de estudio.
2)En segundo lugar, una de las variables ha de preceder en el tiempo a la otra variable (temporalidad).
3)En tercer lugar, no tiene que establecerse una relación espuria. Es decir, se tienen que descartar las causas diferentes de la variable objeto de estudio que no sean las variables independientes en la investigación (asegurar la ausencia de variables extrañas que confundan los resultados del experimento).
3.4.1.Validez
Cuando intentamos definir la validez de un determinado conocimiento, hemos de plantearnos la correspondencia entre lo que nos proponemos estudiar y lo que específicamente estamos estudiando.
En relación a una investigación, podemos señalar diferentes tipos de validez. Dentro del marco de obtención del conocimiento de la psicobiología, teniendo presente las diferentes metodologías utilizadas y los diseños de investigación implementados dentro de dichas metodologías, al hablar de validez nos centraremos exclusivamente en los componentes que definen la validez externa y la validez interna.
La validez interna es el grado de seguridad con el que podemos establecer y atribuir la causa de las variaciones encontradas en las medidas de la variable dependiente, a los cambios de la variable independiente. El control interno (caracterizado por la manipulación de la variable inde pendiente, el uso de la aleatorización y la implementación de técnicas de control específicas) que tenemos en la situación experimental nos permite rechazar interpretaciones alternativas.
La validez externa es el grado de seguridad con el que podemos generalizar los resultados de nuestra investigación a otros momentos temporales, a otros contextos y a otros sujetos de estudio. Esta capacidad de generalización de los resultados se centra en la representatividad y en las técnicas de muestreo utilizadas para seleccionar la muestra de la investigación.
Al tratarse de una cuestión de graduación, las diferentes metodologías experimentales utilizadas en el marco de la psicobiología tendrán mayor o menor validez externa e interna en función del control interno (grado de intervención por parte del investigador sobre la situación objeto de estudio) que implementen en el contexto experimental, y en función de la representatividad (grado de correspondencia entre los sujetos estudiados y los sujetos de interés) y del realismo (grado de correspondencia entre la situación objeto de estudio y la situación natural de interés) de las investigaciones.

Figura 9. Posicionamiento de las diferentes metodologías de investigación habitualmente utilizadas en psicobiología en relación con el grado de control interno (validez interna) y el grado de representatividad y generalización de los resultados (validez externa) (Reproducida de Portell y col., 2003).
La metodología experimental se caracteriza por el nivel más alto de control interno y habitualmente por el nivel más bajo de representatividad y realismo. Por el contrario, la metodología observacional se encontraría en el extremo opuesto, dado que se minimiza el control interno, dotando a la situación de estudio de una gran dosis de realismo. Esto implica cierta cautela en el momento de emitir conclusiones sobre posibles relaciones causales. Entre ambos tipos de metodologías tenemos la metodología cuasiexperimental y la metodología selectiva.
3.5.Metodología experimental
En psicobiología, se pueden utilizar diferentes métodos y diseños de investigación. Los diseños experimentales permiten contrastar hipótesis sobre relaciones causales.
La metodología experimental se caracteriza por la presencia de la manipulación de la VI. Esto implica que el investigador ha de ser capaz de administrar los valores que toma para cada sujeto la VI. De esta forma, la manipulación de la VI puede garantizar que la causa potencial precede al efecto.

Figura 10. Criterios que se han de cumplir para poder inferir que V1 es la causa de V2. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
Manipulación de variables
Hay variables independientes donde se puede llevar a cabo la manipulación, y otras donde no es posible.
1)Imaginemos que queremos estudiar el efecto que tiene un posible fármaco sobre la facilitación de la memoria. Para ello, tenemos dos condiciones experimentales: los sujetos que tomarán el fármaco (la pastilla con el principio activo: la galantamida) y los sujetos que tomarán un placebo (la pastilla sin el principio activo). En este caso, el investigador es capaz de asignar los sujetos de la muestra experimental a las diferentes condiciones experimentales (niveles de la VI). Se trata de una VI manipulada.
2)Ahora imaginemos otro experimento diferente, donde queremos analizar el efecto que tiene la personalidad sobre el rendimiento académico en los alumnos de primero de Psicología de una universidad. Concretamente, se pretende analizar dos rasgos de personalidad: la introversión y la extroversión. La VI de la investigación será la personalidad, con dos niveles (introversión y extroversión) y la VD será el rendimiento académico. El investigador no puede asignar los sujetos de su muestra a las dos condiciones experimentales. Lo que hará en su lugar es medir el rasgo de personalidad en los sujetos de su muestra y los dividirá en dos grupos, en función de si puntúan alto en introversión o en extroversión. En este caso, la VI no es manipulada.
En segundo lugar, la metodología experimental se caracteriza por utilizar la alea torización. Es decir, se caracteriza por la utilización de un procedimiento probadamente aleatorio para asignar los sujetos de la muestra a las diferentes condiciones experimentales. Si la muestra es suficientemente grande, mediante el uso de la aleatorización contamos con las suficientes garantías para creer que los diferentes grupos experimentales se encuentran equilibrados en relación a las variables extrañas (tanto conocidas como desconocidas). La aleatorización, junto con la manipulación de la VI, son las características definitorias y distintivas de la metodología experimental.

Figura 11. La manipulación de la VI, la utilización de la aleatorización y la implementación en la investigación de técnicas específicas de control son procedimientos dirigidos a aumentar el control interno de un experimento (grado de intervención por parte del investigador sobre la situación objeto de estudio) y, por tanto, de la validez interna. De este modo, al aumentar el grado de seguridad que tenemos de que los cambios en los valores de la VI explican las modificaciones en la VD, nos posibilita la contrastación de relaciones causales, que es el objetivo de los diseños experimentales.
Una tercera característica (aunque no exclusiva de la metodología experimental) es el uso de técnicas específicas para llevar a cabo el control de las variables extrañas y de las diferentes fuentes de error. Se trata de evitar que las variables extrañas que pueden encontrarse en el contexto de una investi gación se conviertan en variables confusionistas. De esta forma, mediante el uso de las técnicas de control se pretenderá que los diferentes grupos sean lo más parecidos en relación a las variables extrañas, de manera que lo único que varíe entre ellos sea el nivel de la VI al que han sido asignados.
Por lo que se refiere a las fuentes de error, existen diferentes. Una fuente de error que puede afectar a un diseño experimental es la pérdida no aleatoria de sujetos o atrición. Este tipo de fuente de error hace referencia a la pérdida de los participantes de una investigación explicada por motivos diferentes al azar y relacionada con las variables del estudio. Otra fuente de error es aquella relacionada con las expectativas que tienen el sujeto experimental y el investigador sobre el desarrollo y los resultados de un experimento. Una manera de controlar esta fuente de error sería mediante la utilización del simple o doble ciego, en función de si es el sujeto experimental el que desconoce la condi ción experimental a la que ha sido asignado, o bien lo desconoce tanto el sujeto como el propio investigador. Una tercera fuente de error que deberíamos controlar es la de regresión a la media. La regresión a la media es la tendencia de los datos que presentan valores extremos a tornar hacia la media, cuando se repiten las medidas. Esta tendencia se puede explicar por la probabilidad insignificante de que se repitan las ocurrencias excepcionales que favorecen a que una valoración sea extrema. Este tipo de tendencia de los datos suele ser frecuente en el patrón genético de herencia multifactorial.
3.5.1.Diseños unifactoriales intersujeto
Los diseños unifactoriales intersujeto son diseños experimentales caracterizados por la presencia de una sola variable independiente (dé ahí unifactoriales) y por el uso de un procedimiento probadamente aleatorio (asignación al azar sin restricciones o con restricciones: bloqueo) para asignar los sujetos sólo a una de las posibles condiciones experi mentales utilizando, por tanto, una estrategia de comparación intersujeto.

Figura 12. En los diseños experimentales se pueden utilizar diferentes estrategias de comparación de los sujetos experimentales. Una de las estrategias de comparación es la denominada intersujeto. Para ello, se selecciona los sujetos de la muestra de la población de estudio (el procedimiento de selección no tiene que ser necesariamente aleatorio) y se distribuye los sujetos de la muestra asignándolos a cada una de las condiciones experimentales utilizando un procedimiento probadamente aleatorio, de tal forma que cada sujeto de la muestra será asignado únicamente a una condición experimental. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
Si la asignación de los sujetos a las condiciones experimentales se lleva a cabo sin ningún tipo de restricción, a medida que aumenta el tamaño de la muestra aumentará la probabilidad de obtener grupos equilibrados en relación a las variables confundidoras (tanto conocidas como desconocidas). El objetivo que se persigue es que los grupos que comparemos mediante la estrategia intersujeto sean lo más equivalentes posibles. Se trata de que las variables que puedan confundir los resultados de la investigación se distribuyan de forma equilibrada en las diferentes condiciones experimentales, de tal forma que la única diferencia sustancial entre los grupos debería ser la variable independiente. No obstante, a veces el tamaño de la muestra no es lo suficientemente grande. En este caso, si tenemos conocimiento de alguna posible variable confusionista, para que ésta quede bien repartida (equilibrada en las diferentes condiciones experimentales) se podría utilizar un procedimiento de aleatorización con implementación de restricciones: el bloqueo.
Para llevar a cabo una asignación aleatoria con restricciones (bloqueo) es necesario seguir los siguientes pasos:
•Medir (ordenar o clasificar) a los sujetos en la variable extraña que deseamos controlar por bloqueo.
•Llevar a cabo agrupaciones de sujetos (bloques) con valores similares en la variable que se bloquea.
•Asignar al azar los sujetos de cada bloque a cada uno de los grupos experimentales (niveles de la VI, condiciones experimentales).
Facilitación del aprendizaje espacial en ratas
Si queremos evaluar el efecto que tienen dos tratamientos (autoestimulación eléctrica intracraneal –AEIC– y la administración de galantamida) sobre la facilitación del aprendizaje espacial en ratas, podemos llevar a cabo una estrategia de comparación intersujeto, es decir, asignar los sujetos experimentales a una sola de las condiciones. Imaginemos que se identifica una variable extraña que puede actuar sobre la VD y variar simultáneamente con los diferentes niveles de la VI (una posible variable confusionista).
Según la literatura previa, se ha puesto de manifiesto que la conducta motora de los animales puede influir en el rendimiento de los sujetos en la prueba de aprendizaje espacial que vamos a utilizar en nuestro experimento. Por ello, para asegurarnos de que los grupos experimentales (el grupo que recibirá la AEIC y el grupoque recibirá la galantamida) se encuentran equilibrados en cuanto a la variable conducta motora, se lleva a cabo un procedimiento de bloqueo. Para ello, se mide y se ordena a los sujetos en la variable extraña que deseamos controlar por bloqueo (conducta motora), utilizando una prueba cuya puntuación mínima es de 0 y máxima de 10. Seguidamente, llevamos a cabo una agrupación de los sujetos, formando dos bloques en relación a los valores que presentan en la variable que se bloquea. De esta forma, el primer bloque incluirá a los sujetos que obtengan una puntuación menor de 5 en la prueba de conducta motora, y el segundo bloque a los sujetos que obtengan una puntuación mayor o igual a 5. Por último, se asignará al azar los sujetos de cada bloque a cada uno de los grupos experimentales (AEIC y galantamida). Con este procedimiento nos aseguramos que la variable extraña quede equilibrada en las dos condiciones experimentales.

Figura 13. Si queremos evaluar el efecto que tienen dos tratamientos (autoestimulación eléctrica intracraneal y la administración de galantamida) sobre la facilitación del aprendizaje espacial en ratas, podemos llevar a cabo una estrategia de comparación intersujeto. Si la muestra es suficientemente grande, podemos asumir que mediante la implementación de un procedimiento de aleatorización sin restricciones, las variables extrañas quedarán equilibradas entre los dos grupos experimentales. Sin embargo, en otros casos será conveniente aplicar la técnica del bloqueo tal como se muestra en el ejemplo.
En función del control que se quiera llevar a cabo y la especificidad, podemos llevar a cabo el bloqueo usando dos tipos de procedimiento:
•Bloqueo con diversos sujetos por nivel y bloque.
•Bloqueo con un sujeto por nivel y bloque.
| DISEÑO DE GRUPOS ALEATORIOS CON DIVERSOS SUJETOS POR NIVEL Y BLOQUE | |
| Bloque conducta motora | Condición experimental |
| C. motora < 5 | AEIC |
| Galantamida | |
| C. motora > 5 | AEIC |
| Galantamida | |
Por consiguiente, podemos destacar que el bloqueo es una técnica de control específica del diseño experimental dirigida a la consecución de grupos equilibrados para poder establecer su comparación en relación a los valores presentados en la VD, minimizando la presencia de variables extrañas que puedan ser confusionistas. Resulta una técnica más efectiva que la técnica de asignación aleatoria sin restricciones para conseguir el control experimental cuando se trata de muestras pequeñas. No obstante, esta técnica nos exige medir y clasificar a los sujetos previamente a la realización del experimento.
En definitiva, en los diseños unifactoriales que utilizan la estrategia de comparación intersujeto (asignar los sujetos solamente a una de las posibles condiciones experimentales), podemos utilizar dos de las formas de aleatorización que son específicas de los diseños experimentales:
•Asignación aleatoria sin restricciones.
•Asignación aleatoria con restricciones: bloqueo.
No obstante, existen otro tipo de técnicas de control que no son específicas de los diseños experimentales y que se podrán utilizar para aumentar el grado de control interno y, por tanto, el grado de validez interna:
•Constancia.
•Eliminación.
•Control por placebo.
•Simple, doble y triple ciego.
•Emparejamiento.

Figura 14. Esquema de los diseños experimentales en función del número de variables dependientes, el número de variables independientes, la estrategia de comparación utilizada y el procedimiento de aleatorización implementado. En negrita, pueden verse los dos diseños fundamentales unifactoriales intersujetos. (Reproducida de Portell y col., 2003).
Estudio de emparejamiento llevado a cabo con la comparación de gemelos monocigóticos y dicigóticos criados juntos y separados
Los “gemelos Jim” eran dos chicos que semanas después de su nacimiento fueron adoptados por familias diferentes. Ni los gemelos ni las familias sabían la existencia del otro. Cuando se encontraron a la edad de 39 años, descubrieron que sus vidas estaban repletas de increíbles coincidencias: no sólo ambos se llamaban Jim, sino que cada uno de ellos se casó con una mujer llamada Betty, los nombres de sus hijos fueron James Alan y James Allen, respectivamente y tenían un perro llamado Toy. Ambos trabajaban en el mismo oficio, conducían el mismo coche y pasaban las vacaciones en el mismo lugar. Tenían la misma altura, peso y fumaban la misma marca de tabaco.
Thomas Bouchard y colaboradores (Universidad de Minnesota, 1990) identificaron más de 100 parejas de gemelos monocigóticos y dicigóticos que habían sido criados juntos y separados. Estos autores examinaron una gran variedad de rasgos y de características psicológicas y cognitivas. En general, pudieron comprobar que los gemelos monicigóticos eran más similares que los dicigóticos, independientemente de si habían sido criados juntos o separados.
3.5.2.Diseños unifactoriales intrasujeto
Hasta el momento, hemos visto que, en el diseño de una investigación en psicobiología, lo que interesa es que los diferentes grupos de sujetos sean equivalentes. Esto es debido a que los grupos que se comparan se encuentran formados por individuos diferentes. Si el reparto de los sujetos (con sus variables extrañas) no fuera el adecuado, podríamos encontrarnos con diferencias entre los grupos experimentales que no responden a la manipulación de la VI, sino a fuentes de confusión. En definitiva, lo que se perseguía era que los grupos estuvieran lo más equilibrados posible en relación con las fuentes de confusión (tanto conocidas como desconocidas). Por ello, la necesidad de utilizar un procedimiento de aleatorización. En este punto, cabría preguntarse si existe alguna otra estrategia que nos permita tener equilibradas las fuentes de confusión en todas las condiciones experimentales. La respuesta podría ser la utilización de los mismos sujetos en todas las condiciones experimentales, de modo que cada sujeto nos serviría como control propio y evitaría descompensaciones y desequilibrios debidos a las variables que afectaran más a un grupo que a otro.
El diseño unifactorial intrasujeto se caracteriza por la presencia de una sola VI y por el uso de una estrategia de comparación intrasujeto. La estrategia de comparación utilizada se fundamenta en la idea de que todos los sujetos pasan por todas las condiciones experimentales. No obstante, si decíamos al principio que para hablar de un diseño experimental es necesario utilizar un procedimiento de aleatorización, ¿dónde podríamos implementarlo en este tipo de diseños? El procedimiento de aleatorización se lleva a cabo en relación a los órdenes de presentación de las diferentes condiciones experimentales. De este modo, todos los sujetos recibirán todas las condiciones experimentales, pero no todos las recibirán en la misma secuencia de presentación.

Figura 15. En los diseños experimentales que utilizan la estrategia de comparación intrasujeto, se selecciona los sujeto de la población de estudio (el procedimiento de selección no tiene que ser necesariamente aleatorio) y se distribuyen al azar a diferentes órdenes de presentación de las condiciones experimentales. Cada sujeto pasa por todas las condiciones experimentales, lo que cambia es el orden de administración de las mismas (figura reproducida de Portell y col., 2003).
Supongamos que estuviéramos ante una VI con 3 niveles, correspondientes a 3 tratamientos experimentales (t 0, t1, t2) de los cuales se pretende valorar su eficacia. Al tener 3 condiciones experimentales, con un diseño intersujeto tendríamos 3 grupos de sujetos diferentes (el grupo que recibiera el nivel t0, el grupo que recibiera el nivel t1 y el grupo que recibiera el nivel t2). Lo que perseguiremos es que los 3 grupos seanequivalentes, es decir, que estén lo más equilibrados posible en relación a las variables extrañas, tanto conocidas como desconocidas. Si todas las variables extrañas se encontraran perfectamente equilibradas en los 3 grupos y administráramos el mismo tratamiento a los 3 (por ejemplo, el t0), ¿qué esperaríamos encontrar? Los resultados deberían mostrar el mismo valor en los 3 grupos en relación a la VD (una línea paralela en el eje de abscisas). En los diseños que utilizan una estrategia de comparación intrasujeto, tenemos asegurada la comparabilidad entre grupos, ya que se encuentran formados por los mismos sujetos. De esta forma, el mismo sujeto actúa como propio control. En este caso, teniendo presente que un sujeto recibirá todos los niveles de la VI (siguiendo con el ejemplo, los tratamientos t0, t1, t2), lo que tiene que ser comparable son los diferentes momentos en los que el sujeto recibe los diferentes niveles de la VI. Dicho de otro modo, los diferentes periodos de presentación han de ser equivalentes. En un diseño experimental intersujeto, los diferentes tratamientos se aplican simultáneamente. Esto no es posible en un diseño intrasujeto, ya que el sujeto ha de recibirlos todos y tiene que existir un tiempo de “lavado” entre cada tratamiento para evitar la persistencia de su efecto cuando se administra el siguiente. Partiendo de esta idea, si los periodos en los que se aplican los tratamientos (p0, p1, p2) fueran totalmente equivalentes y administráramos el mismo tratamiento (por ejemplo, el t0), lo que esperaríamos encontrar es el mismo valor en los 3 momentos en relación a la VD.

Figura 16. Comparación de las estrategias de comparación intersujeto e intrasujeto en relación a la equivalencia entre los grupos de sujetos diferentes y los diferentes momentos de presentación de los niveles de la VI. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
La estrategia de comparación intrasujeto tiene diferentes ventajas, derivadas del hecho de que el sujeto actúa como un control propio. De esta forma, se eliminan las diferencias individuales que podemos encontrarnos cuando comparamos grupos de sujetos diferentes. Del mismo modo, este tipo de estrategia posibilita tener diseños más económicos en cuanto al número de sujetos y en relación al procedimiento.
No obstante, también presenta una serie de desventajas e inconvenientes que debemos tener en cuenta y controlar en la medida de lo posible. Por un lado, los diseños intrasujeto pueden presentar el efecto de la persistencia. Éste se produce en tanto que el efecto de un tratamiento (t0) aplicado en un momento (p0) persiste cuando se aplica otro tratamiento (t1) diferente en un momento posterior (p1). Por otro lado, un segundo aspecto a controlar con la estrategia de comparación intrasujeto es el efecto del periodo. Éste tiene lugar cuando la propia medida de la VD hace que los diferentes periodos no sean equivalentes. Se trata de un conjunto de factores que se derivan del hecho de que los sujetos tengan que repetir en diversas ocasiones la tarea experimental que utilizada para me dir y evaluar la VD.
En ocasiones no podemos asegurar que, cuando aplicamos un nivel de la VI, se ha extinguido por completo el nivel aplicado anteriormente. Si tenemos la sospecha de que los efectos de un tratamiento (por ejemplo, p0) persisten a lo largo del tiempo, se deberían establecer periodos de extinción entre un tratamiento y el siguiente, y diferentes medidas para estudiar la influencia. A pesar de ello, en algunas ocasiones este procedimiento resulta insuficiente para evitar la persistencia y hemos de acudir a diseños más complejos. Si se consigue la eliminación de la persistencia, estamos más seguros de la influencia de la VI sobre la VD. Es decir, mejoramos la validez interna del experimento.

Figura 17. Principales ventajas e inconvenientes de la estrategia de comparación intrasujeto. (Reproducida de Portell y col., 2003).
En relación al efecto del periodo, existen diferentes factores que pueden implicar que los momentos en los que se administran los diferentes niveles de la VI no sean equivalentes:
•Aprendizaje.
•Fatiga.
•Motivación.
•Práctica.
Ejemplo de aprendizaje
Imagínese que se quiere estudiar el efecto de la música relajante sobre una tarea de aprendizaje que consiste en perseguir un objetivo en movimiento con una varilla metálica en un rotor. Este tipo de aprendizaje sabemos que depende del sistema de memoria del estriado dorsal. Para llevar a cabo el experimento, se selecciona una muestra de la población objeto de estudio y se asignan aleatoriamente los sujetos de la muestra a los diferentes órdenes de presentación, de tal forma que todos los sujetos pasan por las dos condiciones experimentales (llevar a cabo la tarea de aprendizaje con y sin música). ¿Sería adecuado utilizar esta estrategia de comparación? Seguramente, los sujetos tendrán una mejor ejecución en el segundo periodo de administración de la tarea (independientemente de si ésta se realiza con o sin música). Este resultado lo podríamos explicar por el efecto de la práctica o del aprendizaje.

Figura 18. Aprendizaje con o sin música relajante.
En relación a los inconvenientes de la estrategia de comparación intrasujeto, un diseño experimental llevado a cabo por Lester y Gorzalka en 1988, resalta la importancia de los inconvenientes de este tipo de estrategia de comparación y la dificultad que supone controlarlos. Estos investigadores se plantearon estudiar el efecto Coolidge (aumento de la receptividad sexual cuando un sujeto cambia de pareja después de copular con otra, en comparación a si continuara copulando con la misma) en hámsters hembras. Este efecto se había demostrado claramente en hámsters machos, pero no se había podido poner de manifiesto en hámsters hembras debido a la fatiga sexual que presentaban los machos al copular por segunda vez.
El efecto Coolidge
El nombre del efecto Coolidge proviene de un chascarrillo, contado en forma de anécdota, que describía la visita del presidente de Estados Unidos de América Calvin Coolidge (1872-1933) y su esposa, a una granja avícola. Durante la visita a la granja, la primera dama preguntó al granjero cómo se las arreglaba para conseguir que se engendraran tantos huevos fértiles con un número tan exiguo de gallos. El granjero, orgulloso, le reveló que sus gallos desempeñaban su deber docenas de veces cada día. “Quizá podría explicárselo al señor Coolidge”, replicó la señora Coolidge en un claro tono intencional hacia el presidente. Éste, al escuchar el comentario de su esposa, le inquirió al granjero: “¿Cada gallo cubre a la misma gallina cada vez?”. “No”, exclamó el granjero, “cada gallo tiene a su disposición a muchas gallinas”. “Quizá podría hacérselo saber a la señora Coolidge”, respondió el señor Coolidge.

Figura 19. El efecto Coolidge.
Lester y Gorzalka (1988) quisieron estudiar este efecto (que ya se había demostrado en machos de diferentes especies) en hembras de hámster. Estos investigadores, en un intento de control para que los periodos de presentación de los niveles de la VI fueran equivalentes y la fatiga de los machos no constituyera una dificultad en la atribución de causalidad entre la VI y la VD (al inducir el efecto del periodo), diseñaron el siguiente procedimiento: las hembras del grupo familiar, después de copular con un primer macho (macho a o macho b), copulaban con un segundo macho (macho nuevo), que se utilizaba para que el primer macho pudiera descansar y, de esta forma, su fatiga no enmascarara la receptividad sexual de las hembras. Al acabar con el segundo macho, las hembras eran puestas a copular con un tercer macho (macho a o macho b) que resultaba ser el mismo con el que habían copulado durante la primera ocasión. En el grupo desconocido, el procedimiento era similar; la única diferencia consistía en que, durante la tercera cópula, el macho resultaba ser diferente al introducido durante la primera cópula. Los resultados mostraron que la conducta receptiva de las hembras (conducta lordótica medida en segundos) durante la tercera cópula fue significativamente mayor en las hembras que habían copulado con un macho diferente al de la primera cópula (grupo desconocido).
Para poder controlar los efectos de la persistencia y del periodo, es posible utilizar una técnica muy efectiva: el contrabalanceo o reequilibrado. Esta técnica consiste en la variación sistemática del orden de presentación de los niveles de la VI. Es decir, consiste en llevar a cabo una repetición de la secuencia de presentación de las condiciones experimentales en orden inverso.
El procedimiento a seguir es el siguiente:
1)Generar las permutaciones posibles de los niveles de la VI (secuencias ordenadas de K elementos tomados de un conjunto de n elementos diferentes).
2)Asignar al azar los sujetos de la distribución muestra a las secuencias (órdenes de presentación).
Ejemplo de contrabalanceo
Si queremos evaluar el efecto que tienen dos tratamientos (autoestimulación eléctrica intracraneal –AEIC– y la administración de galantamida) sobre la facilitación del aprendizaje espacial en ratas, podemos llevar a cabo una estrategia de comparación intrasujeto, de tal forma que todos los animales recibirán los dos tratamientos. El procedimiento de aleatorización se lleva a cabo en relación a los órdenes de presentación de las diferentes condiciones experimentales. De este modo, todos los sujetos recibirán todas las condiciones experimentales, pero no todos las recibirán en la misma secuencia de presentación. De los 30 sujetos de nuestra muestra, 15 recibirán los tratamientos en el orden de presentación AB (primero AEIC y luego galantamida) y 15 lo harán en el orden BA (primero galantamida y luego AEIC). Nótese que los 30 sujetos recibirán tanto el tratamiento de AEIC como el tratamiento de galantamida.
En algunas ocasiones, se dan situaciones en las que el uso de los diseños intrasujeto es insostenible, ya que resulta imposible hacer reversible el valor de la VI para cada sujeto.

Figura 20. Ejemplo de contrabalanceo.
El laberinto acuático de Morris
El hipocampo es una estructura crítica para procesar y recordar información espacial y contextual. En base a esta premisa, se pretende evaluar el papel de esta estructura del lóbulo temporal medial en una tarea de aprendizaje espacial: el laberinto acuático de Morris. El laberinto de agua fue diseñado en 1984 por Richard G. Morris para estudiar y evaluar el aprendizaje y la memoria espacial en ratas de laboratorio. El laberinto acuático es una piscina circular llena de agua a una temperatura que oscila entre los 18 y los 27° C, según se utilicen ratas o ratones, en la que se sumerge una plataforma que debe ser localizada por el animal. El agua se vuelve opaca con leche o alguna sustancia no tóxica como el látex para que el animal no vea la plataforma, aunque se ha demostrado que esto no es necesario, ya que el animal nada con la cabeza por encima del agua, lo que le impide ver la plataforma.
En la versión tradicional del laberinto, los sujetos experimentales nadan desde diferentes puntos de salida, situados en el perímetro de la piscina, hasta encontrar la plataforma escondida bajo el agua. Para localizar la plataforma, el sujeto depende de unos puntos de referencia, lo cual implica un amplio rango de posibilidades tales como pequeños objetos localizados inmediatamente alrededor de la circunferencia de la piscina.
Imagínese que se quiere llevar a cabo un experimento para evaluar si las lesiones bilaterales del hipocampo deterioran el aprendizaje espacial en ratas utilizando esta tarea. Para ello, se diseña un procedimiento con dos condiciones experimentales: (A) intervención quirúrgica sin lesión hipocampal, (B) lesión bilateral del hipocampo. En este tipo de diseño, no podemos utilizar una estrategia de comparación intrasujeto, ya que la manipulación de la VI hace que la condición experimental sea irreversible. Si se utiliza el contrabalanceo como técnica de aleatorización, únicamente podría llevarse a cabo el orden de presentación de los niveles de la VI AB, pero no el orden BA (ya que la lesión del hipocampo hace la situación irreversible). Para llevar a cabo este experimento, necesitaríamos utilizar una estrategia de comparación intersujeto y comparar grupos independientes. Si la muestra es suficientemente grande y se utiliza un procedimiento probadamente aleatorio para asignar los sujetos a las condiciones experimentales, podemos asumir que las variables extrañas se equilibrarán formando grupos equivalentes.

Figura 21. Ejemplo de contrabalanceo: estudio del hipocampo.
En definitiva, los diseños intrasujeto minimizan las amenazas a la validez interna debidas a las diferencias individuales, pero aparecen otras amenazas a la validez interna debidas a la administración de diferentes tratamientos a todos los sujetos de la muestra: efecto del periodo y efecto de la persistencia.
De todo lo visto hasta el momento, podemos resumir que el diseño experimental presenta tres formas de aleatorización que son específicas del mismo:
•Asignación aleatoria sin restricciones.
•Asignación aleatoria con restricciones (bloqueo).
•Contrabalanceo.

Figura 22. Esquema de los diseños experimentales en función del número de variables dependientes, el número de variables independientes, la estrategia de comparación utilizada y el procedimiento de aleatorización implementado. En negrita, puede verse el diseño unifactorial intrasujeto. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
Las dos primeras son características de la estrategia de comparación intersujeto, mientras que el contrabalanceo es característica de la estrategia de comparación intrasujeto. Por otro lado, hay una serie de técnicas de control que no resultan específicas de la metodología experimental y que podrán aparecer en otro tipo de diseños.
3.5.3.Diseños factoriales
Los diseños factoriales se caracterizan por estudiar simultáneamente dos o más VI. Para ello, los niveles de las VI se tienen que presentar combinados.

Figura 23. El diseño experimental presenta tres formas de aleatorización que son específicas del mismo: asignación aleatoria sin restricciones, asignación aleatoria con restricciones (bloqueo) y el contrabalanceo. Las dos primeras son características de la estrategia de comparación intersujeto, mientras que el contrabalanceo es característica de la estrategia de comparación intrasujeto. Por otro lado, hay una serie de técnicas de control que no resultan específicas de la metodología experimental y que podrán aparecer en otro tipo de diseños. (Reproducida de Portell y col., 2003).
Ejemplo de diseño factorial
Existen evidencias previas que sugieren que un programa de ejercicio físico regular puede ayudar a reducir el nivel de ansiedad generalizado. Por otro lado, la fluoxetina (un inhibidor selectivo de la recaptación de serotonina) se ha utilizado ampliamente en el ámbito clínico para reducir diferentes trastornos de tipo depresivo. No obstante, evidencias recientes parecen poner de manifiesto que este fármaco podría utilizarse también para el tratamiento de la ansiedad. Si se pretende estudiar el efecto que tienen dos VI (ejercicio físico regular y tratamiento farmacológico: administración de fluoxetina) sobre el nivel de ansiedad que tiene una persona, podríamos utilizar dos diseños unifactoriales, uno para cada una de las VI. No obstante, si lo que se pretende es estudiar de forma simultánea el efecto que tienen las dos VI sobre la VD, utilizaremos un diseño factorial, presentando los niveles de las VI combinados. Con un diseño factorial, se puede evaluar la presencia de interacción entre las VI, para analizar si el efecto que tiene una de las VI sobre la VD depende de la otra VI.
En los diseños factoriales, por tanto, todos los niveles de una variable independiente se combinan con todos los niveles del resto de variables. Esto se puede observar claramente si se representa en el esquema del diseño experimental. Estudiando dos variables de forma simultánea, podemos obtener más información que haciéndolo de forma separada.
Esquema de un diseño factorial y de dos diseños unifactoriales
¿Nos proporciona el mismo tipo de información dos diseños unifactoriales que uno factorial con las mismas variables? Imaginemos que queremos estudiar el efecto de la administración de un programa de ejercicio físico regular y el efecto de la administración de un tratamiento farmacológico (fluoxetina, un inhibidor selectivo de la recaptación de serotonina) sobre el nivel de ansiedad. Para ello, podemos llevar a cabo dos diseños unifactoriales (parte inferior de la figura 25). En el primer diseño, evaluaríamos el efecto del ejercicio sobre la ansiedad, y en el segundo experimento, el efecto de la fluoxetina sobre la misma VD. Si nos fijamos en las condiciones experimentales que se representan, podemos observar que la información es redundante, ya que la condición d (sujetos que no hacen ejercicio regular, ni se les administra fluoxetina) se repite. Si llevamos a cabo el estudio, pero analizando el efecto de las dos VI simultáneamente, combinando los niveles de ambas (diseño factorial), podemos observar que nos proporciona información extra que no quedaba plasmada en los dos diseños unifactoriales (condición a: sujetos que hacen ejercicio regular y se les administra fluoxetina).

Figura 24. Esquema de un diseño factorial y de dos diseños unifactoriales. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
En un diseño factorial, la notación del diseño viene dada por:
N° nivelesVI-1 x N° nivelesVI-2 x …. x N° nivelesVI-j.
De tal forma que un diseño con dos VI, cada una de las cuales con dos niveles, tendría la notación de 2 x 2.
Un diseño factorial puede combinar variables con diferentes niveles, variables que sigan una estrategia de comparación intrasujeto con variables que sigan unaestrategia de comparación intersujeto y variables manipuladas con variables no manipuladas. No obstante, para hablar de un diseño experimental es necesario que, al menos, una de las VI sea experimental, es decir, que cumpla las dos características de la metodología experimental:
•Uso de un procedimiento de aleatorización (asignación aleatoria sin restricciones o bloqueo en el caso de la estrategia de comparación intersujeto y contrabalanceo en el caso de la estrategia de comparación intrasujeto).
•Manipulación de la variable.
En definitiva, en un diseño factorial podemos estudiar el efecto conjunto de las VI (interacción). Para ello, se puede utilizar una representación gráfica de los resultados de una de las VI en el eje de abscisas agrupados bajo las condiciones de la otra V1.

Figura 25. Representación gráfica de un diseño factorial 2x2.
Ejemplo de diseño factorial
Se pretende estudiar (figura 26) de una forma simultánea el efecto de la administración de un programa de ejercicio físico regular (VI1) y el efecto de la administración de un tratamiento farmacológico (fluoxetina, un inhibidor selectivo de la recaptación de serotonina) (VI2) sobre el nivel de ansiedad (VD).
En la figura A, vemos representados en el eje de ordenadas los valores de la VD (nivel de ansiedad de los sujetos), y en el eje de abscisas los valores de la VI1 (administración de un programa de ejercicio físico regular, representados en función de los niveles de la VI2 (administración de un tratamiento farmacológico).
En la figura B, vemos representados en el eje de ordenadas los valores de la VD (nivel de ansiedad de los sujetos), y en el eje de abscisas los valores de la VI2 (administración de un tratamiento farmacológico), representados en función de los niveles de la VI1 (administración de un programa de ejercicio físico regular).
En relación a la gráfica A, tendríamos que preguntarnos si el efecto que tiene el ejercicio sobre el nivel de ansiedad depende de si administra fluoxetina o placebo. Tal como podemos observar, el efecto de la VI1 sobre la VD cuando se administra fluoxetina es de 40, y cuando se administra el placebo también es de 40. En la gráfica B, tendríamos que preguntarnos si el efecto del tratamiento farmacológico sobre el nivel de ansiedad depende de si la persona lleva a cabo el programa de ejercicio regular o no lo lleva a cabo. Tal como podemos observar, el efecto de la VI2 sobre la VD cuando se administra el programa de ejercicio es de 80, y cuando no se lleva a cabo también es de 80. En ambas gráficas, las líneas son paralelas. Esto nos indica que no hay interacción entre las VI. Dicho de otro modo, no se modifica el efecto de una VI al pasar de un nivel a otro de la otra VI. Si se hubiese modificado este efecto, diríamos que hay interacción y que el efecto de una VI depende de los niveles que toma la otra VI.
En un diseño factorial surgen dos preguntas esenciales:
1)¿Qué información puedo extraer de un diseño factorial?
2)De esta información, ¿cuál será útil a la hora de formular conclusiones?
La información que podemos extraer de un diseño factorial la podemos agrupar en dos bloques claramente diferenciados:
•Los efectos principales: se trata del efecto global de una VI sin tener presente (independientemente) los niveles de otra VI. Hay un efecto principal por cada VI.
•Los efectos simples: se trata del efecto de una VI dentro de los niveles de otra VI (fijando sus niveles). Hay un efecto simple por cada VI dentro de cada nivel de la otra VI.
Los efectos principales en un diseño factorial nos informan de la acción de una VI sobre la VD cuando prescindimos de los niveles de la/s otra/s VI con la/s que se encuentra combinada en el diseño. En este caso, la VI1 actúa de la misma forma, ya se combine con un nivel de la VI2, ya se combine con otro nivel de la VI2.
Ejemplo de efectos principales
Se pretende estudiar, de una forma simultánea, el efecto de la administración de un programa de ejercicio físico regular (VI1) y el efecto de la administración de un tratamiento farmacológico (fluoxetina, un inhibidor selectivo de la recaptación de serotonina) (VI2) sobre el nivel de ansiedad (VD). En la figura 27, vemos representados en el eje de ordenadas los valores de la VD (nivel de ansiedad de los sujetos) y en el eje de abscisas los valores de la VI1 (administración de un programa de ejercicio físico regular, representados en función de los niveles de la VI2 (administración de un tratamiento farmacológico). La línea del medio muestra los efectos principales de la administración de un programa de ejercicio físico regular (VI1) sobre los niveles de ansiedad sin tener presente los niveles de la VI2 (administración de un tratamiento farmacológico).
En un diseño factorial, los efectos simples derivan del resultado de descomponer una VI en función de los niveles de otra VI. De esta forma, se estudia cómo actúa la VI1 sobre la VD cuando su acción se divide según los niveles de la VI2. Se estudian, por tanto, los resultados producidos desde el punto de vista de la VI1 condicionados por los niveles de la VI2.
De toda la información analizada en un diseño factorial, solamente interpretaremos una parte en función de si hay o no interacción entre las VI:
•Si hay interacción, interpretaremos los efectos simples.
•Si no hay interacción, interpretaremos los efectos principales.
En definitiva, se detecta interacción en los resultados cuando los patrones de los efectos simples de una VI no son iguales. De esta forma, hablamos de la modificación de la acción de una VI sobre la VD, asociada al nivel de otra VI con la que se combina. Los efectos de VI1 sobre la VD se ven afectados por la presencia de VI2.

Figura 26. Ejemplo de efectos principales.
Análisis de la interacción de dos variables
Imaginemos que queremos estudiar el efecto que tienen dos variables (VI1 –con dos niveles a y b– y de VI2 –con dos niveles a y b–) sobre una VD. Para ello, decidimos estudiarlas de forma simultánea mediante un diseño factorial, combinando los niveles de estas variables. Supongamos que el efecto de la variable VI1 sobre la VD, cuando el nivel de la VI2 es a, es diferente a cuando el nivel de la VI2 es b. En este caso, podemos hablar de una interacción entre las variables, ya que se modifica el efecto de la VI al pasar de un nivel a otro de la VI2.

Figura 27. Análisis de la interacción de dos variables.
En algunas ocasiones, cuando se analizan gráficamente de manera simultánea dos variables, podemos llegar a la conclusión de que existe una interacción entre ellas. No obstante, puede tratarse de una falsa interacción:
•Efecto techo: al estudiar el efecto sobre la VD, a partir de un determinado valor no se pueden obtener valores más elevados.
•Efecto suelo: al estudiar el efecto sobre la VD, a partir de un determinado valor no se pueden obtener valores más bajos.
Análisis de la interacción de dos variables: efecto techo y efecto suelo
Imaginemos que queremos estudiar el efecto que tienen dos variables (VI1 –tratamiento con tres niveles: tratamiento A, tratamiento B y tratamiento C– y VI2 –situación con dos niveles: situación X y situación Y–) sobre una VD. Para ello, decidimos estudiarlas de forma simultánea mediante un diseño factorial, combinando los niveles de estas variables.
En el primer gráfico de la figura 29, se representa el efecto techo y, en en el segundo, el efecto suelo. Imagínese que el instrumento con el que contamos para medir la VD nos da un valor comprendido entre 0 y 100, de tal forma que no podemos obtener medidas por debajo de 0 ni medidas por encima de 100. Tal como podemos apreciar en los dos gráficos, parece que existe una interacción entre las VI. No obstante, en el caso del primer gráfico, una posible explicación sería que, al estudiar el efecto sobre la VD, a partir de 100 no se pueden obtener valores más elevados, manteniéndose constantes aunque se dé un cambio en los niveles de la VI (pasemos del tratamiento B al C).
En el caso del segundo gráfico, podría ser que, al estudiar el efecto sobre la VD, a partir de 0 no se pueden obtener valores más bajos, manteniéndose constantes aunque se dé un cambio en los niveles de la VI (tratamientos A y B).
Podemos distinguir tres tipos fundamentales de diseños factoriales en fun ción de las estrategias de comparación utilizadas para las VI:

Figura 28. Efecto techo y efecto suelo.
1)Diseño intersujeto: todas las VI utilizan una estrategia de comparación intersujeto.
2)Diseño intrasujeto: todas las VI utilizan una estrategia de comparación intrasujeto.
3)Diseño mixto: en el diseño, se combinan VI que utilizan una estrategia de comparación intersujeto y VI que utilizan una estrategia de comparación intrasujeto.

Figura 29. Esquema de los diseños experimentales en función del número de variables dependientes, el número de variables independientes, la estrategia de comparación utilizada y el procedimiento de aleatorización implementado. En negrita, pueden verse los diseños fundamentales factoriales. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
Ejemplo de tres tipos de diseños factoriales: intersujeto, intrasujeto y mixto Esquema de tres tipos de diseños: (A) diseño factorial intersujeto (2 x 3), (B) diseño factorial intrasujeto (2 x 3) y (C) diseño factorial mixto 2 x 3, intrasujeto en el segundo factor. Imaginemos que queremos estudiar el efecto que tienen dos variables (VI1 –tratamiento farmacológico con tres niveles: fluoxetina, venlafaxina y buspirona– y VI2 –administración de un programa de ejercicio físico con dos niveles: SÍ y NO–) sobre una VD (nivel de ansiedad).

Figura 30. Ejemplo de tres tipos de diseños factoriales.
Para ello, decidimos estudiarlas de forma simultánea mediante un diseño factorial, combinando los niveles de estas variables. Obsérvese las diferencias en cuanto a las condiciones experimentales y a los grupos diferentes de sujetos utilizados en función del tipo del diseño factorial. En el primer caso tendremos 6 grupos que pasarán por condiciones experimentales diferentes. En el segundo caso, 1 grupo (ya que los sujetospasan por todas las condiciones experimentales). En el último caso, tendremos 2 grupos que pasarán por condiciones experimentales (ya que en el caso del tratamiento farmacológico, los sujetos recibirán todos los tratamientos en 3 períodos diferentes). ).
Ejemplo de dos tipos de diseños factoriales: mixto e intrasujeto
Diseño A: imagínese que, en un diseño factorial 2 x 3, la primera VI sigue una estrategia de comparación intersujeto, y la segunda una estrategia de comparación intrasujeto. Si en cada condición experimental quisiéramos disponer de 10 datos diferentes, ¿con cuántos sujetos deberíamos contar?
Diseño B: imagínese que, en un diseño factorial 4 x 2, las dos variables siguen una estrategia de comparación intrasujeto. Si en cada condición experimental quisiéramos disponer de 10 datos diferentes, ¿con cuántos sujetos deberíamos contar?

Figura 31. Ejemplo de dos tipos de diseños factoriales: mixto e intrasujeto.
3.6.Metodología cuasi-experimental
En ocasiones, a pesar de que la VI sea una condición manipulada, el investigador no puede establecer los mínimos controles en lo que se refiere a la utilización de un procedimiento probadamente aleatorio: asignación aleatoria sin restricciones, bloqueo o contrabalanceo. En estos casos, se incumple una de las características del diseño experimental: el uso de la aleatorización.

Figura 32. Criterios de demarcación en relación al paradigma manipulativo: comparación de los diseños experimentales y los diseños cuasi-experimentales (figura reproducida de Portell y col., 2003).
Al igual que los diseños experimentales, el objetivo de los diseños cuasi experimentales es contrastar hipótesis causales, sin embargo el grado de control es menor y las amenazas a la validez interna se incrementan en estos diseños. Normalmente, los diseños cuasi experimentales se suele usar en ámbitos más aplicados, cuando interesa evaluar el efecto de una intervención y se dispone de grupos ya formados.
La falta de aleatorización disminuye el control y, por tanto, disminuye la validez interna. No obstante, esta falta de aleatorización no implica una ausencia de validez interna, sino una potencial disminución de ésta. La validez interna es una cuestión de grado. Recordemos que tenemos tres procedimientos dirigidos al aumento de la validez interna:
1)Manipulación de la VI.
2)Uso de aleatorización:
•Asignación aleatoria sin restricciones.
•Bloqueo.
•Contrabalanceo.
3)Control de las variables extrañas mediante el uso de técnicas de control no específicas del diseño experimental como, por ejemplo, la constancia o el emparejamiento.
De estos tres procedimientos, en la metodología cuasi-experimental (de forma genérica) se encuentra ausente sólo la falta de aleatorización, estando presentes los otros dos procedimientos.
La fototerapia y los ritmos circadianos
Diferentes evidencias experimentales parecen indicar que algunos trastornos afectivos se encuentran relacionados con los ritmos circadianos. De hecho, muchos pacientes con trastorno afectivo emocional muestran una cierta falta de orden en los ritmos biológicos circadianos que resulta en diferentes trastornos (insomnio, hipersomnia, etc.).
Supongamos que pretendemos evaluar la eficacia de un tratamiento para reajustar los ritmos circadianos: la fototerapia. Para ello, seleccionamos una muestra de 20 pacientes diagnosticados de trastorno afectivo emocional y medimos (mediante el uso de dos cuestionarios y mediante una entrevista clínica) el grado de depresión (medida pre). Después de la primera medida, aplicamos el tratamiento de fototerapia y cuando éste ha finalizado volvemos a medir el grado de depresión utilizando los mismos instrumentos (medida post).
En la imagen A de la figura 33, se muestra la representación gráfica del diseño utilizado y en la imagen B el esquema del diseño, donde O1 es la media antes de la intervención, X es la intervención y O2 la medida después de la intervención.

Figura 33. Diseño cuasi-experimental: (a) representación gráfica y (b) esquema del diseño.
Existe una serie de amenazas en el diseño cuasi-experimental que nos dificultan saber si el tratamiento ha sido la causa de los cambios encontrados en una respuesta (VD), o bien si estos cambios se hubieran podido obtener en ausencia de dicho tratamiento. Se trata de amenazas contra la validez interna:
1)Maduración: se trata de cambios producidos en el propio sujeto entre la medida pre y la medida post que producen modificaciones de los valores de la VD.
2)Historia: se trata de cambios producidos en el contexto o en el entorno del sujeto entre la medida pre y la medida post que producen modificaciones de los valores de la VD.
3)Selección: se trata de diferencias iniciales entre los grupos debidas a características de los sujetos no controladas por el investigador. De esta forma, los diferentes grupos de tratamiento (niveles de la VI) se encuentran desequilibrados. Puede ser la amenaza más grave contra la validez interna.
4)Administración de pruebas: se trata de cambios producidos por la admi nistración repetida de una prueba.
5)Instrumentación: se trata de cambios producidos en la calibración del instrumento de medida a lo largo del proceso de la investigación.
6)Regresión estadística a la media: se trata de una tendencia de los datos extremos a acercarse a su media cuando se repiten las medidas. Esta amenaza disminuye si tenemos diversas observaciones pre y post (diseño de serie tem poral interrumpida).
7)Pérdida no aleatoria de sujetos: se trata de una mortalidad selectiva. Se produce por el abandonamiento no aleatorio de los sujetos de la investigación. Dicho abandonamiento se asocia a los niveles de la VI.

Figura 34. La regresión estadística a la media es la tendencia de los datos extremos a acercarse a su media cuando se repiten las medidas.
Ahora vamos a ver diferentes tipologías de diseños cuasi-experimentales:
•Pre-experimentos.
•Diseños pre-post.
•Diseños sólo post.
•Diseños de serie temporal interrumpida.
3.6.1.Pre-experimentos
Los pre-experimentos son las estructuras básicas de comparación que, debidamente ampliadas, derivan en los cuasi-experimentos. Están afectados por muchas de las amenazas a la validez interna que acabamos de comentar.
Podemos distinguir 3 tipos de pre-experimentos:

Figura 35. Estructuras básicas de comparación: pre-experimentos. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
•Diseño pre-post con un solo grupo.
•Diseño sólo post simple simultáneo.
•Diseño sólo post simple de cohortes.
En los diseños pre-post con un solo grupo, nos podemos encontrar con diferentes amenazas contra la validez interna (por ejemplo, la historia, la maduración, la administración de pruebas, la instrumentación, etc.). En este tipo de diseño, recogemos el estado del sujeto (VD) antes de aplicar una intervención y después de la misma. El objetivo es comparar la medida post intervención en relación a la medida preintervención. De este modo, la O1 es la línea base u observación pre-intervención, la X es la aplicación de la intervención y la O2 es la observación post-intervención. La comparación que establecemos es O2-O1.
¿Cómo podríamos controlar todos los posibles factores externos que pueden amenazar gravemente a la validez interna? Una de las medidas que podríamos aplicar es la utilización de un grupo control para comparar los resultados.
En los diseños sólo post simples tenemos observaciones posteriores a la intervención, pero carecemos de una línea base (observación pre-intervención). La principal amenaza de este tipo de diseños es la selección debido a que, al no utilizar la aleatorización, no tenemos las suficientes garantías para asegurarnos de que los grupos son equivalentes. Este tipo de diseño se puede implementar de forma simultánea, o bien utilizando cohortes que forman parte de la misma institución pero que pertenecen a un ciclo inmediatamente anterior. Si se utilizan cohortes de ciclos anteriores, además de la selección, una amenaza que se ha de tener presente es la historia.
3.6.2.Diseños pre-post
En los diseños pre-post podemos distinguir dos tipologías fundamentales:
•Diseños pre-post con un grupo control no equivalente.
•Diseños pre-post con cuasi control en una cohorte anterior (diseños de ciclos institucionales).
Los diseños pre-post con un grupo control no equivalente son parecidos a los diseños pre-post simples, pero con un grupo de cuasi-control. Los diseños pre-post con cuasi control en una cohorte anterior, o diseños de ciclos institucionales, tienen las mismas características que un diseño sólo post simple de cohortes, pero con una medida pre tanto para el grupo control como para el grupo que recibe el tratamiento. La principal amenaza es la selección, al tener grupos no equivalentes, y la historia en el caso de uso de cohortes.

Figura 36. Diseños pre-post. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
3.6.3.Diseños sólo post
Para poder distinguirlos de los pre-experimentos, los diseños sólo post cuentan con grupos duplicados que se estudian de forma simultánea. La principal amenaza es la selección.

Figura 37. Diseños sólo post. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
3.6.4.Diseños de serie temporal interrumpida
En los diseños pre-post, puede surgir la duda si el cambio observado es debido al tratamiento o bien se debe a una tendencia previa que presentan los datos.

Figura 38. Diseños de serie temporal interrumpida. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
En un momento determinado del diseño se aplica la intervención y se recogen un conjunto de medidas post-intervención, esperando que se interrumpa la serie o tendencia previa de forma que se observen cambios entre la fase pre y post. De esta forma, se obtiene un indicador más estable de los valores promedio de la VD, su posible carácter cíclico y la tendencia al cambio asociada al tiempo. Al mismo tiempo, el registro de la condición después del tratamiento nos informa sobre si el cambio producido por el tratamiento ha sido puntual o es estable, si está por encima o por debajo de los valores promedio (o de la variabilidad natural de la medida), si interfiere con el carácter cíclico de la condición o si rompe una posible tendencia previa.
Podemos hablar de dos tipos de diseños:
•Diseño simple de serie temporal interrumpida.
•Diseño de serie temporal interrumpida con grupo control no equivalente. Este tipo de diseño mejora la validez interna del simple al añadir un grupo de cuasi-control.

Figura 39. En los diseños cuasi-experimentales, si tenemos dos medidas (una llevada a cabo antes de la intervención y otra llevada a cabo después), puede ser que los cambios observados en las medidas de la VD no se deban al tratamiento aplicado, sino a las tendencias que presenten los datos. (Reproducida de Portell, Vives i Boixadós (2010). Mètodes, Dissenys i Tècniques d’Investigació. Col·lecció d’esquemes. Bellaterra: UAB.
3.7.Paradigma no manipulativo
Dentro del paradigma manipulativo, nos encontramos los diseños experimentales, los diseños cuasi-experimentales y los diseños de caso único. No obstante, en algunas ocasiones la variable estudiada no puede ser manipulada (paradigma no manipulativo). Se trata de características que los sujetos presentaban antes de comenzar el experimento. En estos casos, se incumplen las dos características de la metodología experimental: el uso de la aleatorización y la manipulación de la VI. Dentro del paradigma no manipulativo tendremos la metodología selectiva con dos tipos de diseños (diseños ex post facto y diseños de encuesta) y la metodología observacional (característica de los estudios etológicos).
Se trata de un conjunto de diseños en los que no hay manipulación de la VI, es decir, no hay una intervención en el núcleo de la investigación:

Figura 40. Paradigma no manipulativo: metodología selectiva y metodología observacional. La diferencia principal entre la metodología selectiva y la observacional es que, en la selectiva, se produce una intervención en el contexto, lo cual proporciona un mayor grado de control interno. Ni en el método selectivo, ni en el método observacional hay una intervención en el núcleo de la investigación.
1)Metodología selectiva
a)Diseños de encuesta:
•Diseños transversales.
•Diseños longitudinales:
–Diseño longitudinal de poblaciones.
–Diseño de panel.
–Diseño de cohortes.
b)Diseños ex post facto:
•Diseños de cohortes.
•Diseños de casos y controles.
•Diseños transversales analíticos.
2)Metodología observacional
La diferencia principal entre la metodología selectiva y la observacional es que, en la selectiva, se produce una intervención en el contexto, lo cual proporciona un mayor grado de control. El método observacional se caracteriza por un grado mínimo de intervención y consecuentemente por un grado máximo de realismo.
A modo de ejemplo de los diseños desarrollados dentro del paradigma no manipulativo, a continuación presentaremos los diseños de encuesta y ex post facto.
3.7.1.Método selectivo
El método selectivo es una estrategia particular del método científico que se propone obtener información dirigida a la resolución de problemas de diferente naturaleza (descripción, covarianción, predicción, causación, etc.). En el método selectivo, tenemos un control indirecto debido a que no hay manipulación de la VI. No obstante, el investigador interviene en la producción de la respuesta de interés. En el método observacional, por su parte, no se da ningún tipo de intervención por parte del investigador.

Figura 41. Características principales de la metodología selectiva.
El método selectivo se fundamenta en la selección de los sujetos en función de su pertinencia a un determinado nivel de las variables relevantes (ya sean del núcleo o del contexto de una investigación). Teniendo presente que el investigador no puede administrar los valores que toma para cada sujeto la VI, selecciona a los sujetos en función de si pertenecen a un nivel o a otro de la VI.
En definitiva, el método selectivo se aplica cuando los elementos del núcleo de una hipótesis no son accesibles mediante la observación directa, y cuando tampoco son manipulables pero sí que son accesibles a través de otras técnicas.

Comparativa de los diseños de encuesta y los diseños ex post facto en la metodología selectiva. (Reproducido de Portell y col., 2003).
Diseños de encuesta
En este tipo de diseños, se introducen elementos de interrogación general sobre un gran conjunto de aspectos y factores (pasados, presentes o futuros), con el objetivo de describir una población con la mayor representatividad posible (con un alto grado de validez externa).
El objetivo, por tanto, no se basa en contrastar hipótesis causales, sino que se centra en el estudio de relaciones simétricas (bidireccionales) entre las variables.
El problema de la selección de la muestra no es específico de la encuesta, ya que en todas las metodologías que hemos descrito hasta el momento se trabaja con muestras. Además, el problema de establecer una técnica de recogida de datos no es específico de la encuesta, dado que la obtención de datos es lo que nos permitirá evaluar las hipótesis iníciales. Resulta muy importante tener presente la técnica utilizada por recoger estos datos.

Figura 42. Características generales de los diseños de encuesta.
Los factores que pueden incidir en la representatividad de la muestra se aglutinan en dos grandes bloques:
1)Factores relacionados con el tamaño de la muestra (normalidad, variabilidad, simetría, etc.).
2)Procedimiento utilizado para seleccionar la muestra de una población:
•Probabilística.
•No probabilística.
El procedimiento de muestreo probabilístico es aquel en el que cada elemento de la población tiene una probabilidad conocida y no nula de ser seleccionado. En el no probabilístico, se desconoce o no se tienen en cuenta las probabilidades de selección de cada uno de los miembros de la población. El muestreo probabilístico es el tipo de muestreo que nos proporciona más mecanismos para obtener una buena representatividad (validez externa). Por el hecho de estar basado en la teoría de la probabilidad, es el único que permite formarnos una idea sobre el grado de representatividad de una muestra concreta.
Hay dos tipos principales de diseños de encuesta:
•Transversal: estudio de una muestra en un momento en el tiempo.
•Longitudinal: estudio del cambio o de la evolución.

Figura 43. Diferentes tipos de diseños de encuesta. (Repoducida de Portell y col., 2003).
En los diseños transversales, obtenemos información de un único momento; en los diseños longitudinales se recogen, al menos, dos medidas temporalmente distantes con el objetivo de estudiar el posible cambio de una variable en la población.
Dentro de los diseños longitudinales, podemos distinguir algunos subtipos. El diseño longitudinal de poblaciones permite analizar cómo evoluciona una variable en la población (como si se llevara a cabo varios diseños transversales sucesivos utilizando muestras de sujetos diferentes procedentes de la misma población). El diseño de panel, aparte de permitir estudiar cómo evoluciona una variable en la población, también permite estudiar cambios individuales. El diseño de cohortes es un tipo de diseño implementado a modo de diferentes diseños de panel donde cada uno procede de una cohorte –conjunto de sujetos que comparten alguna característica común frecuentemente relacionada con el tiempo.
Los diseños de encuesta tienen como objetivo describir una población con la mayor representatividad posible. Se centran en el estudio de relaciones simétricas.
Diseños ex post facto

Figura 44. Criterios de demarcación en relación al paradigma manipulativo: comparación de los diseños experimentales y los diseños ex post facto. (Reproducida de Portell y col., 2003).
El estudio se inicia después de que haya sucedido alguna cosa:
•Que se encuentren presentes los diferentes niveles o valores de la VI (causa supuesta) pero que todavía no se haya dado el desenlace (VD).
•Que se hayan dado tanto los diferentes niveles de la VI como el desenlace (VD).
Los diseños ex post facto se pueden clasificar en:
•Diseño etiológico de cohortes.
•Diseño de casos y controles.
•Diseño transversal analítico.
1)El diseño etiológico de cohortes es el diseño ex post facto que presenta mayor validez interna, ya que permite evaluar la condición de temporalidad (en puntos anteriores, se explicó que los 3 criterios de causalidad son: asociación, temporalidad y ausencia de espuriedad). Como requisito esencial, parte de la premisa de que ninguno de los sujetos de la muestra seleccionada presente el desenlace que se está estudiando. Se ha de medir la VI y agrupar a los sujetos en función de las categorías o niveles de ésta. En el caso más sencillo, el diseño tendrá dos categorías (VIe y VIne) en relación a la exposición al factor (exposición –e–, no exposición –ne–). Una vez definida la selección, se efectúa un seguimiento de las cohortes (la expuesta y la no expuesta) y se mide la VD (desenlace). En el caso más sencillo, supone clasificar a los sujetos en función de la presencia o no del desenlace objeto de estudio (VDc y VDnc, respectivamente).
Se trata de un tipo de diseño poco adecuado para estudiar desenlaces con una prevalencia muy baja.

Figura 45. Esquema de los diseños etiológicos de cohortes. (Reproducida de Portell y col., 2003).

Figura 46. Estudio de los efectos del plomo sobre el sistema nervioso. (Reproducida de Portell y col., 2003).
Estudio de los efectos del plomo sobre el sistema nervioso
El estudio comienza seleccionando a los sujetos en función de si están o no expuestos al plomo para, posteriormente, evaluar los efectos de este metal sobre el tejido nervioso.
2)El diseño de casos y controles es el diseño ex post facto adecuado para analizar desenlaces con una prevalencia baja. En este tipo de diseño, los sujetos se seleccionan en función de la presencia/ausencia del nivel objeto de estudio (desenlace) de la VD. A partir de aquí, se lleva a cabo un rastreo retrospectivo para recoger los valores que presentaban las potenciales variables explicativas del objeto de estudio (VI).

Figura 47. Esquema de los diseños de casos y controles. (Reproducida de Portell y col., 2003).
Para llevar a cabo este tipo de estudios:
a)Se selecciona una muestra de individuos (casos) que presentan la categoría o nivel “crítico” de la VD (nivel de la VD que es quiere explicar: VDc).
b)Se selecciona una muestra de individuos (controles) que no presentan la categoría o nivel “crítico” de la VD (VDnc).
c)Se mide de forma retrospectiva las VI. En general, la medida de estas variables lleva a buscar información relativa al pasado de los sujetos.
Estudio del síndrome de Lesch-Nyhan
El síndrome de Lesch-Nyhan tiene una prevalencia de un niño de cada 20.000. Cursa con una conducta compulsiva de automutilación consistente en morderse los dedos y los labios hasta ocasionarse lesiones graves. También se puede observar en los pacientes un importante retraso de aprendizaje. El estudio comienza seleccionando los su jetos en relación con la presencia del síndrome y, retrospectivamente, se analizan las causas del mismo, que en este caso resulta un déficit del enzima hipoxantina-fosforribosiltransferasa que provoca un aumento de purinas y ácido úrico en sangre.

Figura 48. Estudio del síndrome de Lesch-Nyhan. (Reproducida de Portell y col., 2003).
3)El diseño transversal analítico es el diseño ex post facto adecuado para evaluar, de manera simultánea, la VI y la VD. Debido a esto, para poder evaluar relaciones causales con este tipo de diseño es necesario tener las garantías suficientes de que la VI ha sucedido antes en el tiempo que la VD (criterio de temporalidad).

Figura 49. Esquema de los diseños transversales analíticos. (Reproducida de Portell y col., 2003).
Ejemplo de un diseño transversal analítico
Imagínese que un grupo de investigadores sugiere (por evidencias experimentales preliminares) que la actividad theta y gama del sistema septo-hipocampal constituye un rasgo fisiológico subyacente a la potenciación del aprendizaje y la memoria. Por testar su hipótesis de que una actividad alta theta y gama aumenta el recuerdo de una tarea de memoria declarativa, este grupo de investigadores evalúan a una muestra de voluntarios, registrando su actividad cerebral a la vez que realizan la tarea de memoria. El diseño empleado en esta investigación es un diseño transversal analítico, dado que se están analizando simultáneamente la VI y la VD.
En definitiva, podemos concluir que el objetivo fundamenta de los diseños ex post facto es estudiar relaciones causales, no obstante no hay una manipulación de las VI.

Figura 50. Ejemplo de un diseño transversal analítico.
3.7.2.Métodos de observación de la conducta en etología
La etología es una disciplina que se enmarca dentro de la psicobiología. No obstante, tal como sugiere Sánchez-López (2014), el enfoque etológico aporta una perspectiva de análisis de las bases biológicas de la conducta complementaria a las otras disciplinas psicobiológicas. De esta manera, la etología agrupa las preguntas que pueden formularse sobre la conducta en estudios de causalidad, función, ontogenia y evolución, todo ello en el marco de referencia de la teoría de la evolución y los modelos explicativos que se derivan. Al etólogo le interesan las conductas naturales y los procesos cognitivos que los animales muestran en la naturaleza, en condiciones de laboratorio o en cualquier condición intermedia entre ambos extremos; y utiliza preferentemente el nivel de análisis social e individual, mientras que las otras disciplinasprincipalmente se centran en el nivel fisiológico. La etología utiliza tanto la metodología observacional como la experimental, mientras que las otras disciplinas utilizan preferentemente, pero no exclusivamente, la metodología experimental.
Este apartado se centra en acotar algunos principios básicos de la observación sistemática que serán útiles para ubicar este método de investigación en etología.
Entre las características que definen la metodología observacional (Anguera, 1991), interesa destacar que las observaciones cumplan los siguientes requisitos:
•Que sean sistemáticas.
•Que se puedan replicar.
Una observación es sistemática en tanto que se explicitan los elementos del proceso observacional. En la observación sistemática, la operativización de las variables conductuales implica el establecimiento de cuáles son las unidades de conducta, definirlas y estructurarlas. Es replicable, cuando puede ser reproducida, facilitando de esta forma la contrastación independiente de los factores que la componen.
Inicialmente, podemos distinguir dos tipos de observación en relación al grado de estructuración de la situación que se observa:
•Observación natural.
•Observación estructurada.
En tanto que una observación se lleva a cabo sin manipular ni aportar elementos que contribuyan a la génesis de ésta, o a los cambios en la situación donde se contextualiza, se denomina observación natural. En este tipo de estudios podemos acceder a las situaciones tal como se presentan en la realidad. No obstante, a veces puede interesar elicitar algún tipo de respuesta o situación para poder acercarnos al objeto de estudio (perdiendo, por lo tanto, cierto grado de validez externa). De este modo, es posible utilizar algunas técnicas que garantizan un contexto natural pero que aumentan, al mismo tiempo, la probabilidad de que un determinado fenómeno ocurra (génesis de un contexto estructurado de observación). Este tipo de observación se denomina observación estructurada. Algunos autores distinguen un tercer tipo, que sería el estudio de campo.
En diferentes ocasiones, el trabajo del etólogo se centra en la obtención de una lista de unidades de conducta propias de una determinada especie. Aquí es donde cobra especial interés el etograma. Tal como definen Quera y Losada (2014), un etograma, o repertorio conductual completo o exhaustivo de una especie, es el conjunto de todas las unidades de conducta posibles de un organismo en su entorno natural, o inventario sistematizado de todas sus pautas naturales de conducta.
Otro aspecto importante a destacar es si el observador es una unidad que no forma parte del objeto de estudio o bien si forma parte de él. En función de este criterio (grado de implicación del observador en el objeto de estudio/fenómeno observado), podemos distinguir entre tres tipos de observación:(Anguera, 1979)
•Externa.
•Participante.
•Autoobservación
En etología, la combinación de los dos criterios mencionados da lugar a las tipologías observacionales de la figura 54.
Recordemos que el método observacional forma parte del paradigma no manipulativo, en tanto que no hay manipulación de la VI.

Figura 51. Diferentes modalidades de observación.
Para cuantificar la conducta resulta de cardinal importancia obtener medidas que indiquen magnitud y que permitan establecer comparaciones entre las unidades de conducta y los individuos observados. También resulta importante la selección de las sesiones de observación, las reglas que aplicaremos de muestreo intrasesional de individuos, las reglas de registro, la instrumentación utilizada y la concordancia entre los observadores. .
| MEDIDAS DE LAS UNIDADES DE CONDUCTA | |
| Ocurrencia | Medida para analizar la aparición de la categoría que se observa. |
| Frecuencia | Analiza las veces que aparece la categoría objeto de observación. |
| Latencia | Medida que nos informa del tiempo que tarda en aparecer el fenómeno que se observa a partir de un determinado momento de referencia. |
| Duración | Medida para analizar el tiempo en que el fenómeno que se observa se encuentra presente de manera continua. |
| Intensidad | Analiza el grado en que el fenómeno que se observa se encuentra presente. Para ello, es necesario contar con escalas de medida de dicha intensidad. |
4.Orígenes históricos de la psicobiología
Tal como hemos visto al principio del capítulo, la psicobiología se enmarca dentro de la neurociencia.
Es necesario tener presente que el término neurociencia, brevemente definida por Mora y Sanguinetti como “aquella parcela disciplinar que estudia el desarrollo, estructura, función, farmacología y patología del sistema nervioso en su relación con los procesos sensoriomotores, cognitivos y conductuales” (F. Mora y Sanguinetti, 1994), fue utilizado de forma más asidua en la lengua inglesa a partir de finales de la década de 1960 y principios de la de 1970. Por ello, de acuerdo con la opinión de E. G. Jones (2000), podemos decir que la neurociencia como tal es un fenómeno que se inscribe fundamentalmente en el siglo XX, a pesar de sus profundas raíces dentro del campo del conocimiento biomédico (Nutton, 2002).
Íntimamente ligado al campo de la neurociencia y la psicobiología, se inscribe la neuropsicología y la neurociencia cognitiva. La neuropsicología representa un híbrido de disciplinas que cambia rápidamente a la luz de nuevos conocimientos científicos y con el uso de modernas tecnologías, donde el cerebro, la mente y la cognición representan una tríada fundamental en sus propios cimientos. Durante la última parte de este milenio, el estudio del cerebro se trasladó desde una posición periférica dentro de las ciencias biológicas y psicológicas hasta convertirse en este campo interdisciplinario que ahora ocupa una posición central en cada una de dichas disciplinas (Schacter, 2001).
Este giro tuvo lugar, principalmente, debido a que el estudio del cerebro se incorporó en un marco general de conocimiento que contaba, por un lado, con los avances de la biología celular y molecular y, por otro, con el surgimiento de la psicología como disciplina científica. Dentro de esta nueva línea, el alcance de la neurociencia cognitiva y la psicobiología fue capaz de abarcar desde el estudio de los genes y de las moléculas hasta la cognición y la propia mente del individuo. Partiendo de este planteamiento, resulta oportuno establecer una reflexión, en primer lugar, acerca de las diferentes influencias que han permitido la maduración de la psicobiología como disciplina sobre la base de las relaciones conceptuales y metodológicas que diferentes ciencias, como la biología, la psicología, la medicina e incluso las ciencias de la computación, establecieron en paralelo en diversos momentos de nuestra historia más reciente. En segundo lugar, puede resultar de gran utilidad analizar cómo este marco multidisciplinar ha permitido que disciplinas con diferentes tradiciones, metodologías y diferentes objetos de estudio hayan podido ir incorporando el estudio científico del sistema nervioso como algo fundamental y vertebral en su marco teórico.
Según Jones, la psicobiología enmarcada dentro de la neurociencia expresa un nuevo concepto, denominado como ciencia del cerebro, de la mente y de la conducta, y una disciplina no constreñida por las actitudes predominantes, dogmas y técnicas subyacentes a las disciplinas tradicionales (Jones, 2000). Diversos trabajos que tuvieron lugar a finales del siglo XVIII y a principios del XIX proporcionaron una base lo suficientemente sólida para que la psicobiología pudiera apoyarse en ella (Swanson, 2000).
4.1.Los inicios: de las trepanaciones al renacimiento
Actualmente, contamos con diferentes registros arqueológicos muy antiguos que ponen de manifiesto la existencia de perforaciones en los huesos del cráneo de otras personas. Este tipo de intervenciones recibe el nombre de trepanación.

Cráneo de una mujer trepanado utilizando un utensilio de sílex (neolítico: edad del hierro, 3500 a. C.)

Extracción de la piedra de la locura, obra de El Bosco , Museo del Prado, Madrid.
Existen evidencias de trepanaciones de diez mil años de antigüedad. Parece ser que el procedimiento se llevaba a cabo con la intención de tratar al sujeto de algún mal que lo achacaba (ya fuera “físico” o incluso “espiritual”). El análisis de los cráneos examinados demuestra el crecimiento de tejido nuevo alrededor de la intervención quirúrgica, lo cual sugiere que los pacientes lograban sobrevivir a estas trepanaciones. Incluso hay casos de cráneos que demuestran haber sufrido varias de estas intervenciones.
El objetivo de las trepanaciones no queda claro hoy en día. Hay hipótesis que sugieren que este tipo de intervenciones eran llevadas a cabo para aliviar al paciente de su sufrimiento (pacientes con dolores de cabeza, pacientes que sufrían locura o aquellos que habían sido víctimas de encantamientos o de energías perversas, etc.).
En 1862, Edwin Smith pudo conseguir un papiro en la ciudad egipcia de Luxor. Dicho papiro se conoce como el papiro quirúrgico de Edwin Smith y parece tratarse del documento médico más antiguo de que tenemos noticia. A pesar de estar datado a comienzos del siglo XVII a. C. (dinastía XVII), existen evidencias que sugieren que se fundamentó en documentos de periodos más antiguos (3000 a. C.).
Si examináis a un hombre con una herida abierta en la cabeza que le llega hasta el hueso y que le atraviesa el cráneo, deberéis palpar la herida. Si encontráis algo preocupante en contacto con vuestros dedos, [y] el hombre se estremece en gran mesura […]. Deberéis decir respecto a él: […] ‘Una dolencia contra la que voy a lidiar’.
Anónimo, Papiro quirúrgico de Edwin Smith, circa 1550 a. C.
Trabajos iniciales sugirieron que el autor del documento fue un sacerdote egipcio de la tercera dinastía del viejo reino egipcio: Imhotep. No obstante, hay indicios que llevan a pensar que el papiro fue elaborado, como mínimo, por tres escritores distintos. Desde Hollywood se ha generado una visión cinematográfiaca de la figura de Imhotep con la trilogía de La momia.

Papiro quirúrgico de Edwin Smith, circa 1550 a. C.
El arqueólogo e historiador americano James Breasted encontró que este documento era un texto antiguo que recogía descripciones de 48 casos de pacientes con lesiones traumáticas (Breasted, 1922). En el papiro, se hacía referencia a la exploración de los pacientes, a las observaciones realizadas de la anatomía, el diagnóstico establecido, las pautas de intervención e incluso el posible pronóstico y evolución para cada caso. El documento proporciona interesantes descripciones de 27 casos de pacientes con trauma craneal. De los casos presentados, sólo 14 de ellos parecen no mostrar alteraciones y daños cerebrales, el resto (13 pacientes) presentan daño cerebral y alteraciones neurológicas. En el detalle de los casos, se explican algunos procedimientos para llevar a cabo suturas craneales, se realizan detalladas descripciones de las membranas que cubren al cerebro (“saco que cubre al cerebro”, las meninges) y de un líquido que circula por debajo de éstas (el líquido cefalorraquídeo). Se describen las circunvoluciones de la corteza y son comparadas con los residuos ondulados que deja el mineral de cobre al fundirse. En este documento, se pone de manifiesto que las lesiones en el cerebro podían tener consecuencias en partes del cuerpo bastante distantes, produciendo problemas de coordinación, parálisis de los miembros del lado opuesto del cuerpo, pérdidas sensoriales, etc. En uno de los casos, el paciente parece haber sufrido las consecuencias de un “contragolpe”, es decir, un golpe en un lado de la cabeza que produce una compresión del cerebro sobre el lado opuesto del cráneo.
De forma añadida a todas a aportacione de la medicina egipcia, nos encontramos que diferentes escuelas griegas y romanas aludían al posible funcionamiento del sistema nervioso.
Hipócrates, desarrolló sus labores como médico y como docente de medicina. Este autor no sólo relacionó el cerebro con la génesis del movimiento o con el registro de las sensaciones, sino que también lo vinculó a la cognición y al intelecto.
En contra de los supuestos de Hipócrates, el griego Aristóteles intentó vincular la inteligencia con el corazón y no con el cerebro. Este filósofo, además de gestar la lógica, fue un propulsor del estudio de la biología y de la anatomía. Aristóteles pensaba que la función del cerebro era la de proporcionar refrigeración a la sangre y, de esta forma, evitar su sobrecalentamiento para que el funcionamiento del corazón fuera el adecuado y pudiera denotarse el temperamento racional característico del ser humano.
Galeno (130-200 a. C.) fue un médico que nació en Pérgamo (en la actualidad Bergama, en Turquía). Al nacer en el seno de una familia con recursos pudo formarse ampliamente en diferentes disciplinas. Se centró, no obstante, en la medicina, pudiendo estudiar la obra de Hipócrates (cosa que determinó la orientación que mantuvo durante toda su trayectoria). Acabó sus estudios en Alejandría, donde pudo favorecerse de los estudios de anatomía y fisiología, y acceder a documentos de Erasístrato y Herófilo. Volvió a Pérgamo, donde trabajó como médico de los gladiadores. Este tipo de trabajo le permitió analizar las consecuencias de los traumas sobre el sistema nervioso. En el año 162, se trasladó a Roma, donde trabajó como médico y se dedicó al estudio de la anatomía. Galeno llevó a cabo numerosos estudios de disección con diferentes especies animales (ovejas, cerdos, monos, etc.), debido a que la disección humana estaba prohibida por la legislación romana. Mediante estos estudios de disección mostró dos estructuras claramente diferenciadas en el cerebro: el cerebro y el cerebelo. Al darse cuenta de que la consistencia del tejido entre estas dos partes también era diferente (el cerebro de estructura más laxa y el cerebelo de textura más firme y dura), sugirió que el cerebelo era el encargado de enviar las órdenes a los músculos y que el cerebro era el que debía de registrar las sensaciones.

Hipócrates (460-355 a. C.) reconocido como el padre de la medicina occidental.

Aristóteles (384-322, a. C.), con su maestro Platón (427-347 a. C.) a la izquierda.

Galeno (130.200, a. C.).
Aunque escribió más de 400 obras (de las que sólo se han podido conservar unos 140 documentos), una de sus principales es el Methodo medendi, que influyó notablemente sobre la medicina occidental durante más de catorce siglos.
Hoy sabemos que los ventrículos cerebrales son espacios que tenemos en el interior del cerebro llenos de líquido cefalorraquídeo. Galeno sugirió que el cerebro funcionaba de acuerdo a un equilibrio en cuatro fluidos vitales: los humores. Según Galeno, las sensaciones eran registradas, y los movimientos se iniciaban gracias al movimiento de los humores hacia los ventrículos cerebrales o de éstos a través de los nervios. Galeno creía que los ventrículos ayudaban al cerebro a registrar las sensaciones y a controlar el movimiento del tronco y de las extremidades. Posteriormente, René Descartes, partiendo de las teorías mecánicas de los fluidos, se enmarcó en la corriente de pensamiento que sostenía que el fluido expulsado de los ventrículos circulaba a través de los nervios para causar el movimiento de los miembros a través del inflamiento de la musculatura.
Las obras del médico y filósofo persa Avicenna (Abū ‘Alī al-Husayn ibn ‘Abd Allāh ibn Sīnā) y del médico judío Maimónides (Moshé ben Maymon o Musa ibn Maymun) también aportaron descripciones importantes sobre la anatomía, el funcionamiento y las patologías asociadas al sistema nervioso. Por ejemplo, Avicena detalla en su obra dos tipos de parálisis faciales, la periférica y la central. También su obra trata de algunos temas considerados hoy objeto de estudio de la psicología y describe algunas alteraciones psiquiátricas. Para Maimónides, por ejemplo, el asma implicaba tanto al cerebro como a los pulmones, ya que de esta forma se podían explicar tanto los dolores de cabeza como los propios ataques asmáticos.

Canon de Avicena

Moses Maimónides (1135-1204).

Andreas Vesalius (1514-1564).

Nicolaus Steno (1638-1686).
Andreas Vesalius (1514-1564) continuó básicamente con los estudios anatómicos iniciados ya con Galeno, proporcionando extraordinarios detalles de la estructura y organización macroscópica del tejido nervioso. En Basilea (1543), publicó De humani corporis fabrica (Sobre la estructura del cuerpo humano), una obra de anatomía de siete volúmenes, ricamente ilustrada por Jan Stephen van Calcar (alumno de Tiziano). Vesalius aboga por la importancia crítica de la disección humana para el correcto estudio del cuerpo.
Nicolaus Steno (1638-1686) fue uno de los científicos que intentó analizar la organización funcional del cerebro. Este autor estaba interesado en poder llegar a comprender cómo el cerebro es capaz de “gobernar” los movimientos, los sentidos e incluso el propio pensamiento del hombre.
No hay más que observar la disección de la masa grande, el cerebro, para tener amplios motivos para lamentar nuestra ignorancia […]. Admiramos […] las fibras de todos los músculos y aún deberíamos admirar más su disposición en el cerebro, donde un número infinito de ellas, confinadas en un espacio muy reducido, llevan a cabo su función específica sin confusión ni desorden alguno.
Nicolas Steno (Niels Stensen), 1668.
4.2.La electricidad y el estudio del sistema nervioso
Entre 1772 y 1775, John Walsh demostró que la electricidad parecía estar implicada en la fisiología animal (Piccolino y Bresadola, 2002). No obstante, este autor no pudo explicar cómo la electricidad se podía almacenar en los tejidos.

René Descartes (1560-1650). Descartes argumentó que el cerebro y el sistema nervioso tenían un funcionamiento parecido. Hablaba de un fuido que circulaba por los conductos nerviosos, llegando hasta el cerebro.
En 1791, los trabajos de Luigi Galvani proporcionaron firmes evidencias experimentales de la implicación de la electricidad en la función neuromuscular. De acuerdo con este autor, existe un desequilibrio entre el interior y el exterior de las fibras musculares, siendo una fibra nerviosa la que penetra en éstas, permitiendo el flujo eléctrico entre los dos compartimentos. A finales de siglo, los trabajos de Galvani y el biólogo alemán Emil du Bois Reymond habían puesto de manifiesto que la estimulación de un nervio permitiría inducir el movimiento de los músculos. Por tanto, se llegó a la conclusión que el cerebro podía generar electricidad (Piccolino, 2000; Piccolino y Bresadola, 2002).

Luigi Galvani (Bolonia, Italia, 1737-1798).

Charles Bell (1774-1842).

François Magendie (1783-1855)
Una de las preguntas que se plantearon en el momento fue si las señales que llegan hasta los músculos y que causan el movimiento utilizan las mismas vías que las que registran las sensaciones. A principios del siglo XIX, el físico escocés Charles Bell y el fisiólogo francés François Magendie intentaron dar respuesta a esta cuestión (Finger, 1994). Bell examinó la posibilidad de que las dos raíces espinales transmitieran la información en direcciones diferentes, demostrando que la sección de la raíz ventral provocaba parálisis muscular. Por su parte, Magendie pudo demostrar que las raíces dorsales transmitían la información sensorial hasta la médula espinal.
La ley de la conducción nerviosa
He aquí unos ejemplos ilustrativos en relación a la ley de la conducción nerviosa:
Se ha reconocido que las raíces anteriores de los nervios espinales otorgan el poder de la moción muscular y las raíces posteriores la sensibilidad. Cuando en el experimento se cortan las raíces anteriores de los nervios de una pata, el animal pierde todo poder sobre ella, aunque el miembro todavía sigue sensible. Pero si, por otro lado, se cortan las raíces posteriores, el poder de moción continúa, aunque la sensibilidad queda destruida”.
C. Bell (1825). An exposition of the natural system of the nerves of the human body with a republication of the papers delivered to the Royal Society, on the subject of nerves, p. 21.
Utilizando un escalpelo muy afilado pude […] dejar al descubierto la mitad posterior de la médula espinal […] vi que [el perro] se movía aunque su sensibilidad había sido completamente anulada […]. Comencé a considerar que era probable que las raíces posteriores de los nervios espinales tuvieran funciones diferentes que las anteriores y estuvieran particularmente relacionadas con la sensibilidad. Se me ocurrió, desde luego, que el paso siguiente era cortar las raíces anteriores dejando intactas las posteriores […] el miembro estaba completamente inmóvil y flácido, aunque no podía haber duda de que su sensibilidad quedaba sin afectar.
F. Magendie (1822). Expériencies sur les fonctions des racines des nerfs rachidiens. Journal de physiologie expérimentale et pathologique, 2, 276-279.
La ley de la conducción nerviosa, que germina de la obra de Charles Bell y François Magendie, facilitó el estudio de los arcos reflejos, postulados y analizados posteriormente gracias a los trabajos de Marshall Hall, originando una senda teórica fructífera que obtendría su cénit a partir de la aparición de la reflexología rusa.
A finales de siglo, los fisiólogos alemanes Gustav Theodor Fritsch y Eduard Hitzig estimularon partes concretas del cerebro de un perro, observando que esta estimulación provocaba la contracción de músculos específicos en la parte opuesta del cuerpo del animal. Por otro lado, otra de las aportaciones destacadas de este siglo fue el estudio de la localización de diferentes funciones en partes anatómicamente diferenciadas del cerebro.
Otro autor importante en la génesis de la psicobiología, no sólo por lo que se refiere al papel de la electricidad en el sistema nervioso, sino también por sus trabajos en la fisiología de los sistemas sensoriales, fue Hermann Ludwig Ferdinand von Helmholtz.
Este autor inició, en 1841, su disertación doctoral como discípulo de Johannes Müller. Éste último formuló la teoría de la energía específica en relación a los sistemas sensoriales, sugiriendo que cada sensación se encontraba marcada y configurada por la actividad específica de las células sensoriales que recogían y enviaban dicha información, independientemente de la energía estimular que las activara (luz, presión de la piel, etc.).

Gustav Theodor Fritsch, Eduard Hitzig y la ilustración original de la corteza del perro.
Johannes Müller es considerado como el padre de la fisiología experimental alemana. Catedrático de Fisiología en la Universidad de Berlín, de su modelo experimental partirá una escuela que dejará huella en distintos enfoques de la psicología. Sus discípulos, contrarios a su vitalismo, entendieron que los procesos fisiológicos podían ser explicados por fuerzas físico-químicas, dando así al organismo una explicación materialista. Sus componentes más importantes fueron: Herman von Helmholtz, que estableció la velocidad del impulso nervioso, Emil du Bois Reymond, que descubrió la naturaleza electro-química del impulso nervioso, Carl Ludwing, especialista en la circulación de la sangre y en las glándulas de secreción interna y Ernest Brücke, maestro de Freud en la Universidad de Viena. La visión de estos autores, que entendieron el organismo como una máquina especializada en transformar energía, influenció tanto a la teoría psicoanalítica como a la reflexología rusa.
D. Saiz (2000). Los umbrales de la psicología científica, p. 20. Barcelona: UOC.

Ludwig Ferdinand von Helmholtz (1821-1894).

Johannes Peter Müller (1801-1858)
Hermann von Helmholtz analizó con sumo cuidado la organización y la disposición del sistema nervioso en los invertebrados. Uno de sus descubrimientos se centró en los terminales de un tipo de células que había identificado el naturalista alemán Christian Gottfried von Ehrenberg.
Hermann von Helmholtz llevó a cabo, en su laboratorio de Potsdam, investigaciones en relación con la generación de calor por la contracción muscular. Este fisiólogo llegó a poder demostrar que el calor era generado por los músculos y no por los nervios (tal como habían sugerido otros autores). En relación con los aspectos fisiológicos de los sistemas sensoriales analizados por von Helmholtz, cabe destacar que marcaron una importante influencia en su discípulo Wilhelm Wundt (uno de los padres de la psicología experimental).

Christian Gottfried von Ehrenberg (1795-1876).
Fueron los tiempos los que plantearon los problemas, pero fue el genio de Helmholtzel que desarrolló teorías para solucionarlos. A diferencia de Wundt, Helmholtz no buscaba el establecimiento formal de la psicología como ciencia independiente; sin embargo, el peso de sus trabajos y el efecto producido por su prestigio tuvieron mucho que ver con el establecimiento de la psicología como ciencia.
E. G. Boring (1950/1978). Historia de la psicología experimental, p. 318. México: Trillas.
Hermann von Helmholtz estudió la velocidad de conducción del impulso eléctrico en las células nerviosas. Este autor pudo llegar a cuantificarla.

Aparato diseñado por Hermann von Helmholtz para medir lal velocidad de la conducción nerviosa
4.3.El estudio de las partes: localizacionismo

Jean-Pierre-Marie Flourens(1794-1867) y lámina de uno de sus estudios de fisiología.
En 1823, el fisiólogo francés Jean-Pierre-Marie Flourens puso de manifiesto que el cerebelo tenía un papel muy importante en la coordinación motora, sugiriendo que, en última instancia, las funciones cognitivas son propiedades globales que provienen de la actividad integrada de todo el cerebro y no de regiones específicas anatómicamente diferenciadas.
No obstante, el austríaco Franz Joseph Gall se decantó por la idea de que el cerebro estaba compuesto de partes especializadas. La percepción, la emoción y el lenguaje se podían localizar en diferentes sistemas neurales.

Paul-Pierre Broca (1824-1880) Localización en un cerebro humanio del área que lleva su nombre
A mediados de siglo, el cirujano francés Pierre Paul Broca argumentó que el lenguaje, una de las funciones que nos distinguen de otras especies, no es una propiedad procedente del funcionamiento global del cerebro, sino que puede circunscribirse a regiones cerebrales específicas.
Broca presentó a un paciente que podía entender el lenguaje pero no podía hablar. A la muerte del paciente (1861), examinó su cerebro y observó que sólo una pequeña porción de tejido parecía dañada; esta lesión se localizaba únicamente en el lóbulo frontal del hemisferio izquierdo.
El neurólogo y psiquiatra alemán Karl Wernicke, por su parte, identificó otra área (denominada posteriormente el área de Wernicke) localizada en la región posterior de la circunvolución temporal superior, y en la región colindante a la circunvolución temporal media (áreas 22, 39 y 40 de Brodmann). Inicialmente, su lesión se relacionó con déficit en la comprensión del lenguaje. No obstante, hoy en día sabemos que su implicación funcional en el lenguaje es mucho más compleja, formando parte del sistema perisilviano posterior e interaccionado con el sistema perisilviano anterior.
Por tanto, toda la tradición científica acaecida en el siglo XIX se decantó hacia tres premisas vertebrales:
1)El cerebro se comunica con el cuerpo a través de los nervios y mediante la electricidad.
2)Las lesiones del sistema nervioso pueden afectar a las sensaciones, al movimiento e incluso al propio pensamiento.

Karl Wernicke (1848-1905)
3)El cerebro tiene distintas partes identificables que, probablemente, podrían llevar a cabo diferentes funciones: la percepción, la emoción y el lenguaje se podrían localizar en sistemas neurales anatómicamente diferenciados.
En definitiva, podemos decir que el lenguaje con el que se escriben las raíces en el siglo XIX de la psicobiología y la neurociencia es un lenguaje basado, fundamentalmente, en la electrofisiología y en la neuroanatomía.

Figura 52. Mapa de localizaciones cerebrales propuesto por Spurzheim. (Fuente: Edelmira Domènech. La frenología, pp. 176-177. Seminario Peu Mata. Universidad de Barcelona).
4.4.La era moderna: la doctrina neuronal y la hipótesis iónica
¿Qué ha sucedido en la era moderna? Debe considerarse que, durante el último tercio del siglo XX, el estudio del cerebro en las ciencias biológicas y psicológicas ha pasado de una posición periférica a ocupar una posición central. Pero, ¿qué es lo que ha permitido la gradual incorporación del estudio del sistema nervioso en el núcleo central de la biología y su posterior alineación con la psicología? Autores como Kandel y Squire defienden que el surgimiento de la neurociencia celular y molecular, por una parte, y el fortalecimiento de la psicología científica, por otra, ha permitido la ruptura de muchas barreras teóricas, conceptuales e incluso metodológicas para poder, finalmente, abordar el estudio de la mente y del cerebro desde el núcleo de ambas disciplinas (Kandel y Squire, 2000).
En lo referente a la biología, a principios del siglo XX, resultaba una ardua tarea el intentar comprender cómo el cerebro se desarrolla y es capaz de percibir, pensar, realizar movimientos e incluso recordar la información previamente aprendida. Paulatinamente, el estudio del sistema nervioso ha ayudado a trazar un planteamiento general donde es posible entender el sistema nervioso como un sistema que está bajo el control de diferentes procesos biológicos universales y, de esta forma, fácilmente abarcable por el conocimiento de la tradición biológica.
Respecto a la psicología, en los comienzos de este siglo parecía muy pretencioso y reduccionista intentar abarcar los procesos mentales desde una aproximación neural. No obstante, el desarrollo de diversos trabajos de las décadas de 1950 y 1960, así como la aparición de técnicas que permitían el estudio del cerebro humano in vivo bajo diferentes condiciones sensoriales y cognitivas, han mostrado que, a través de la exploración del sistema nervioso, podemos llegar a conocer los procesos cognitivos (que hasta ahora únicamente podían abordarse mediante la inferencia deductiva) que intervienen entre estímulos y respuestas: un intento por comprender el lenguaje estructural y electrofisiológico.
Existía, entre la biología y el estudio del sistema nervioso, una gran barrera teórica dado que el lenguaje con el que se estaba escribiendo el estudio del cerebro se basaba fundamentalmente en la neuroanatomía y en la electrofisiología, y el lenguaje utilizado por la biología se basaba en la bioquímica. Durante las cinco últimas décadas, esta barrera se ha ido solventando, estableciéndose poco a poco una neurociencia celular y molecular, en la que anatomía y electrofisiología se han convertido en objetivos fácilmente accesibles. Esta instauración de la neurociencia celular y molecular se ha basado, fundamentalmente, en dos hechos importantes:
1)Por un lado, en la doctrina neuronal.
2)Por otro, en el surgimiento de la hipótesis iónica.
4.4.1.La doctrina neuronal: Santiago Ramón y Cajal
La aparición de Santiago Ramón y Cajal en el marco teórico del estudio del sistema nervioso cambió el curso de su propia historia (Bosch y Abbott, 2001; De Felipe, 2002).

Santiago Ramón y Cajal (1852-1934).
Dibujo realizado por el propio Cajal de una de sus preparaciones histológicas.
A finales del siglo XIX, la teoría que prevalecía para dar una explicación de la organización del sistema nervioso establecía que éste estaba compuesto de una red difusa de nervios, donde los somas celulares desempeñaban un papel específico de aporte de nutrientes. Cajal pudo demostrar que el cerebro se componía de células discretas, llamadas neuronas, cuyos axones y ramificaciones axónicas no formaban un retículo continuo. Rápidamente, esta doctrina constituyó el principio fundamental y organizacional del sistema nervioso, exponiendo que la neurona era la unidad metabólica, genética, anatómica y fisiológica del cerebro (Shepherd, 1991). Cajal fue considerado como uno de los investigadores que había contribuido de forma más significativa a la victoria de la doctrina neuronal en su batalla sobre la teoría reticular (De Felipe, 2002).
Del mismo modo, Cajal expuso otros dos principios teóricos que ayudaron en gran medida a favorecer el acercamiento teórico de la biología hacia el estudio del sistema nervioso:
1)El primero, denominado principio de la polarización dinámica, establece que en una neurona las señales eléctricas fluyen en una sola dirección, direc ción que es además predecible y constante.
2)El segundo es el principio de especificidad de las conexiones, que sugiere que las células nerviosas no se comunican de una forma indiscriminada, ni forman redes aleatorias, y que dichas conexiones son invariantes y se encuentran definidas para cada especie.
Cien años después de la concesión del premio Nobel en fisiología y medicina a Santiago Ramón y Cajal, su obra no sólo no queda obsoleta, sino que promueve la necesidad de una relectura a la luz de los nuevos escenarios científicos del siglo XXI. Durante toda su trayectoria científica, Cajal obtuvo excelentes e incomparables observaciones mediante el manejo y la puesta en marcha de diferentes métodos científicos utilizados también por sus coetáneos. Lo que diferenció la esencia de las aportaciones de Cajal del resto de la comunidad científica fue la interpretación que realizó de las mismas, basándose en un continuo, exhaustivo, arduo y concienzudo trabajo. Llegar a la interpretación de la mente, mediante el análisis de la estructura del sistema nervioso adulto o en desarrollo, resulta en una exaltación de la creatividad que aplicó Cajal a todos sus estudios. Vamos a analizar cómo la obra y el pensamiento de Cajal aborda aspectos que, hoy en día, son materia de estudio en psicología.

Santiago Ramón y Cajal en su laboratorio, óleo sobre lienzo de Roibert Thom.
En primer lugar, nos vamos a centrar en la visión que tenía Cajal de diferentes procesos cognitivos como el aprendizaje y la memoria, cuando aplicó el análisis estructural de la corteza cerebral y la interpretación funcional de la misma. También abordaremos la visión que sostenía Cajal de los correlatos neurales de la respuesta emocional y de los sentimientos, para finalizar con una previsión de Cajal de cómo la conciencia podía ser fruto de la actividad del cerebro. En definitiva, hoy en día es indiscutible la importancia que en su momento tuvieron las teorías de Santiago Ramón y Cajal en la génesis de algunos de los postulados esenciales de la neurociencia cognitiva y de la psicología, ya que su obra y pensamiento mostró una profunda preocupación por lo que hoy conocemos como procesamiento de la información cognitiva o emocional y de la aplicación de la neurobiología a las funciones superiores del cerebro como la conciencia (Redolar, 2007).
Inteligencia
Para Cajal, la morfología celular o su relación entre sí no pueden explicar las funciones cerebrales superiores, por los motivos sigu¡entes:
•El cerebro no contiene un centro receptor de todas las fibras sensoriales y motoras, sino que toda la corteza puede considerarse una serie de centros.
•La corteza está dividida en regiones que realizan asociaciones mentales que no pueden explicarse por su citoarquitectura.
Según Cajal, una “célula psíquica” desempeña una actividad más amplia y funcional en relación con las funciones superiores cuanto mayor número de expansiones protoplasmáticas, somáticas y colaterales ofrece, y cuanto más copiosas, largas y ramificadas son los colaterales emergentes de su cilindroeje.
La hipótesis previa a Cajal aceptada por la comunidad científica se centraba en la premisa de que la inteligencia está relacionada con el número de células. Cajal sugiere que el ejercicio mental puede forzar el desarrollo de expansiones protoplasmáticas y colaterales estableciéndose nuevas relaciones intercorticales (proceso que hoy identificamos como plasticidad cerebral), aunque no se forman nuevas neuronas (proceso conocido actualmente como neurogénesis).
En esta línea de pensamiento, se observa la gran influencia del asociacionismo en Cajal a través de autores alemanes, como Wundt y Helmholtz (Redolar, 2007). De esta forma, se habla de asociacionismo interneuronal, en el sentido de que la inteligencia depende del número de conexiones entre las células nerviosas (hipótesis quimiotáctica, no sólo para el desarrollo sino también para los procesos de aprendizaje y memoria). Además, Cajal también lleva a cabo una descripción de las diferencias en la plasticidad cerebral en el cerebro en desarrollo y en la edad adulta.
Bases fisiológicas del aprendizaje y la inteligencia
En la obra de Cajal, hay tres aspectos claves en relación al aprendizaje y la inteligencia:
1)El crecimiento de axones y la mayor extensión y ajustamiento de las conexiones.
2)Los impulsos nerviosos se propagan sin esfuerzo y se convierten en más automáticos.
3)La influencia del naturalismo y el mecanicismo en la concepción de Cajal sobre el aprendizaje y la inteligencia.
Cajal se da cuenta de que la riqueza y la longitud de las expansiones protoplasmáticas parecen depender del número de fibrillas nerviosas terminales con las que cada célula mantiene relaciones de contacto.
Este autor también destaca en su obra la importancia que tiene la atención en los procesos de aprendizaje y memoria:
Bajo la influencia de la atención profunda y continuada sobre un orden de ideas y percepciones, el territorio encefálico correspondiente sería asiento de una hiperemia fisiológica, y el protoplasma nervioso acrecentaría su masa en virtud de una asimilación más activa.
S. Ramón y Cajal (1894b).
Cajal lleva a cabo amplias descripciones de la gran complejidad de las vías de asociación a cortas y largas distancias. Intenta vincular estos estudios histológicos con las funciones cognitivas superiores, sobre todo con el aprendizaje y la memoria.
A toda esta amalgama de factores, Cajal añadió algunos aspectos que ayudaban a clarificar la importancia del papel celular del sistema nervioso en funciones complejas:
•Mielinización (aislamiento de los terminales y una comunicación más rápida).
•“Cemento intersticial”.
•Neuroglia (separar las fibras y evitar contactos y filtraciones de las corrientes).
•Modificaciones en la composición química de las células y del “cemento intersticial”.

Santiago Ramón y Cajal detectó la complejidad de las vías de asociación acortas y largas distancias
Cajal analizó meticulosamente la gran riqueza en las terminaciones nerviosas, lo cual explica la gran complejidad que presentan las áreas de asociación de la corteza. De esta forma, sugirió que el crecimiento de nuevas dendritas y alargamiento y ramificación de colaterales nerviosos son susceptibles a mejorar el ajuste y la extensión de los contactos, y de organizar relaciones absolutamente nuevas entre neuronas primitivamente inconexas.
De forma añadida, para Cajal la inteligencia no era fruto de la actividad de un “centro privilegiado”, sino el resultado de la actividad combinada del cerebro.
Consciencia
Según Cajal, el carácter consciente o inconsciente de la actividad cerebral podría depender del mayor o menor consumo de fuerza que requiere la circulación de la onda nerviosa a través de series neuronales. Éste resulta ser uno de los primeros acercamientos al concepto de arousal cerebral.
Cajal comienza a vislumbrar la idea de una diferenciación entre áreas motoras, sensoriales y de asociación a nivel cortical. Además, sugiere que la consciencia es fruto de la actividad de la corteza cerebral.
Emociones
Para Cajal, además de los “centros perceptivos”, existen en la corteza cerebral los “centros conmemorativos”, cuya lesión afecta a la memoria, al reconocimiento de objetos y a la conducta emocional (“sentimiento”). Cajal se anticipa a la relación entre el control emocional de la conducta y la corteza cerebral (refiriéndose a lo que conocemos como corteza prefrontal).
Cajal también se anticipa a la lateralización de las funciones cerebrales en los “centros conmemorativos” (no para los “centros perceptivos”, que son simétricos y bilaterales).
Cajal, la psicología y la doctrina neuronal
Los aspectos cognitivos tratados en la obra de Cajal se encuentran muy ligados a los fenómenos de plasticidad cerebral y de “asociacionismo interneuronal”. La atención, el sentimiento y la consciencia representan procesos dinámicos colaterales. Cajal opta por una psicología positivista, pero no de un positivismo acrítico (posiciones inamovibles).

Figura 53. Diferentes subregiones de la corteza prefrontal. A: corteza prefrontal dorsolateral; B: corteza orbitofrontal y corteza ventromedial.
Una contribución crítica de Cajal fue la aplicación de la doctrina neuronal para explicar las relaciones entre plasticidad cerebral y procesos mentales, desde un punto de vista estructural y sus teorías sobre la influencia del ambiente sobre la función y el desarrollo del cerebro. Cajal propone en su obra mecanismos y teorías sobre la plasticidad y funcionamiento del sistema nervioso que representan un punto de partida para las ideas modernas de la psicología en lo que se refiere a la cognición, la consciencia y las emociones (Redolar, 2002).
4.4.2.La neurotransmisión y la hipótesis iónica
Con posterioridad, Charles Sherrington maduraría los conceptos descritos por Cajal y, a comienzos de siglo, introdujo el término sinapsis, definiendo con éste aquellos puntos especializados que sirven de contacto entre dos células nerviosas.
En la década de 1920, Otto Löewi demostró que una sustancia química era capaz de activar el corazón desde el nervio vago.
Junto con Henry Dale y Wilhelm Feldeberg, Otto Löewi estudió las sinapsis neuromuscular y autonómica, poniendo de manifiesto la existencia de una señal (sustancia química) que permitía la comunicación en el sistema nervioso y que se liberaba desde el terminal presináptico, difundiendo a través del espacio sináptico y uniéndose, finalmente, a los receptores de la neurona postsináptica.
En 1925, Edgar Douglas Adrian puso de manifiesto que el impulso nervioso se propagaba siguiendo la ley del todo o nada. Tres años más tarde, utilizando técnicas de registro de fibras sensoriales individuales, descubrió la existencia de una relación entre la sensación y la frecuencia de impulsos de un axón sensorial específico.

Charles Scott Sherrington (1857-1952), en varias etapas de su vida.
Fotos superpuestas a los registros de contracciones del flexor común profundo de klos dedos de la mano de un macaco rhesus.
Tanto metodológica como teóricamente, surgieron dos líneas claramente diferenciadas: por un lado, la encabezada por John Eccles (discípulo de Sherrington) que postulaba que la transmisión sináptica se debía a un flujo pasivo de corriente desde una neurona a otra; por otro, la encabezada por el propio Dales, que argumentaba que la transmisión debía ser química, utilizando como vehículo de comunicación una sustancia transmisora (Kandel, Schwartz y Jessell, 2000).
En los años cuarenta, Alan Hodgkin, Andrew Huxley y Bernard Katz explicaron el potencial de reposo y el potencial de acción en términos de movimientos específicos de iones en la membrana neuronal, desarrollando la hipótesis iónica de la comunicación intraneuronal.
Ya a finales de los años treinta, Hodgkin y Huxley revolucionaron el pensamiento de la biología al descubrir que el potencial de acción en las neuronas no abolía simplemente el potencial de reposo como se había creído hasta entonces (Kandel, Schwartz y Jessell, 2000). Pocos años después, pusieron en práctica una serie de experimentos de fijación de voltaje que demostraron el flujo diferencial del Na+ y del K+ durante el potencial de acción, de fuera a dentro y de dentro a fuera, respectivamente.
Durante los años sesenta y setenta, se identificaron diversas sustancias que podían actuar como neurotransmisores y, en 1976, Edwin Neher y Bert Sakmann desarrollaron la técnica del Patchclamp, que permitía medir el flujo de corriente a través de un canal iónico individual. Posteriormente, se dio un gran paso a nivel molecular con la clonación tanto de receptores ionotrópicos como metabotrópicos.
Estos dos autores obtuvieron el premio Nobel de fisiología o medicina en el año 1991, por sus investigaciones en relación al estudio del paso de corrientes eléctricas a través de un canal de la membrana de la célula.
4.5.La psicología y el estudio del cerebro
Llegados a este punto, quedaba claro el amplio armazón construido en base a la neuroanatomía, la neurofisiología y la neuroquímica; pero ¿cómo se podría implementar una aproximación neural anatómica a la cognición? A finales del siglo XIX, la psicología comenzó a emerger como una ciencia experimental. Los trabajos de Wilhelm Wundt y Gustav Fechner comenzaron a describir y delimitar una línea de cuantificación experimental sobre cómo procesamos la estimulación sensorial del entorno y qué relaciones existen entre la magnitud de un estímulo físico determinado y una sensación subjetiva. Este rigor científico fue llevado al estudio de la conducta observable, virando de forma completa en los años sesenta hacia el estudio de los procesos cognitivos y las representaciones internas.
La psicología fisiológica es así en primer lugar psicología, y adopta como objetivo, investigar los procesos conscientes dentro de su propio contexto.
W. Wundt (1874). Grundzüge der physiologischen Psychologie. Leipzig: W. Engelman.
La idea de tratar las sensaciones como estados conscientes que varían cuantitativamente se remonta a las mónadas de Leibniz y a sus doctrinas de la pequeña percepción y la apercepción. Esta línea de pensamiento había sido elaborada ulteriormente por el filósofo alemán Herbart. Fechner los siguió a ambos al admitir la existencia de sensaciones inconscientes –o, como él las denominaba, negativas– que no atraviesan el umbral de la conciencia.
T. Leahey (1998). Historia de la psicología. Principales corrientes en el pensamiento psicológico.
Madrid: Prentice Hall.

Wilhelm Wundt (1832-1920).

Gustav Theodor Fechner (1801-1887)
Otro de los campos que recogió gran número de trabajos basados en la metodología experimental fue el del estudio científico de las emociones. Tal como especificó el biólogo británico Charles Robert Darwin, el lenguaje de las emociones es en sí mismo y, sin duda, importante para el bienestar del género humano.

Charles Robert Darwin (1809-1882).

Guillaume Benjamin Amand Duchenne (1806-1875)
En 1862, el anatomista francés Duchenne describió que, en los seres humanos, la sonrisa estaba producida por la contracción de dos músculos de la cara: el orbicular y el cigomático mayor. En concreto, Duchenne observó que este último podía controlarse voluntariamente, mientras que el orbicular –o músculo de Duchenne– únicamente parecía contraerse ante una emoción.
De forma añadida, se pusieron en marcha diferentes trabajos que, desde una perspectiva celular, pero utilizando los métodos de la psicofísica y el conductismo, intentaron analizar cómo las células nerviosas eran capaces de codificar un estímulo sensorial determinado. Por tanto, se pudo mostrar cómo en el estudio de la conducta y la cognición era posible moverse más allá de una mera descripción para explorar los mecanismos neurales subyacentes a las representaciones internas del mundo externo.
Por otro lado, Ebbinghaus analizó la obra de Fechner (Elementos de psicofísica), utilizando su procedimiento para ponderar los valores de sensibilidad y constituir los umbrales de la percepción. Adaptó, posteriormente, dichos valores para poder cuantificar los grados de retención e instituir de esta forma el funcionamiento de los procesos mnémicos.

Hermann Ebbinghaus (1850-1909).
Los trabajos experimentales llevados a cabo por Ebbinghaus en la Universidad de Berlín representaban un cierto atrevimiento en aquella época, puestoque tanto Wundt como Fechner, pioneros de la psicología científica, no veían viable el estudio experimental de la memoria. Sin embargo, los resultados de sus investigaciones no dejaron de impresionar, como ha indicado el historiador español Antonio Caparrós, por su seguridad cuantitativo-experimental, rigor, originalidad, e imaginación innovadora, así como por su estilo claro, sobrio, preciso y enérgico. Con esta aportación Ebbinghaus se convertía en el pionero del estudio de este proceso, ejerciendo una profunda influencia sobre la manera de abordar la investigación de la memoria. Con su sistema de trabajo, rompió con los métodos introspectivos aún vigentes en el laboratorio de Wundt en Leipzig y abrió, al mismo tiempo, un nuevo campo de investigación con el que demostró la posibilidad de utilizar el método experimental en los procesos cognitivos.
D. Saiz (2000). Fundación y establecimiento de la psicología científica, p. 18. Barcelona: UOC.
4.6.Registros de células
Hasta el momento, la investigación sobre el funcionamiento Del cerebro había puesto de manifiesto que la maquinaria molecular y las propiedades eléctricas de las neuronas eran muy similares entre las diferentes especies animales. Desde una perspectiva cognitiva, se planteó la siguiente cuestión: si a nivel celular y molecular existen estas semejanzas, y si la conducta y la cognición son productos de las operaciones neurales, ¿qué es lo que distingue a una especie de otra con respecto a sus habilidades cognitivas? Gracias a la aplicación de la metodología neurocientífica en la investigación psicológica, se llegó a la conclusión de que era el número de neuronas y las diferentes conexiones que se establecen entre ellas el punto clave de distinción en la escala filogenética que nos permitía distinguir unas especies de otras en función de sus capacidades cognitivas, tratándose más de una diferencia cuantitativa que cualitativa.
En la mitad del siglo XX, se pusieron en marcha diferentes estudios de registro de células individuales de la corteza sensorial. Investigadores como Vernon Mountcastle, David Hubel y Torsten Wiesel pusieron de manifiesto que el cerebro filtra y transforma la información sensorial en su camino hacia la corteza, lo cual resulta crítico para la percepción del estímulo.
La mayoría de estos estudios fueron realizados en animales anestesiados, pero no es hasta finales de los años sesenta cuando se empezó a aplicar este tipo de registros en sujetos despiertos que podían estar realizando a la vez diferentes tareas motoras y sensoriales. No obstante, a pesar de que estos trabajos con células individuales habían aportado mucha información acerca de cómo el cerebro es capaz de codificar neuralmente la información del mundo exterior, no podemos olvidar que el cerebro está constituido por múltiples sistemas y neuronas que operan en conjunto. De este modo, en los años setenta las técnicas de neuroimagen funcional proporcionaron la manera de poder monitorizar amplias poblaciones neuronales mientras los sujetos realizaban diferentes tareas cognitivas, por ejemplo, aquellas relacionadas con los procesos de aprendizaje y memoria o con el lenguaje.
En definiva, podemos concluir que la aplicación paulatina de diferentes métodos neurocientíficos en psicología ha permitido introducir el estudio del sistema nervioso como el nexo de unión entre el ambiente y la conducta y la cognición.
4.7.Raíces históricas en el estudio de la memoria
Diversos autores han sugerido que el estudio de la memoria se ha constituido como uno de los ejemplos clave de cómo la metodología multidisciplinar de los estudios paralelos realizados en sujetos humanos y en animales de laboratorio nos sirve para poder comprender la interacción existente entre los sistemas cerebrales y la cognición (Eichenmbaum y Cohen, 2001; Kandel, Schwartz y Jessell, 2000; Kandel y Squire, 2000).
En el punto anterior, se han analizado los trabajos de Hermann Ebbinghaus. Además de este autor, otros científicos inmediatamente posteriores dieron un gran impulso a la aplicación del método científico en el estudio de los procesos de aprendizaje y memoria. Entre algunos de los autores, destacan: Edward L. Thorndike, Shepard I. Franz, Karl Lashley, etc.
En el caso de Thorndike, su trabajo se centró fundamentalmente en la perspectiva conductual. Uno de los grandes logros que se planteó con la obra de este autor fue la posibilidad de contrastar hipótesis causales utilizando el método científico en modelos animales para cuantificar el aprendizaje y la memoria.

Karl Lashley (1890-1958).

Shepherd Ivory Franz (1919-1920).

Edward Thorndike (1874-1949).
Posteriormente, otros investigadores utilizaron algunos de los paradigmas experimentales de Thorndike, pero dentro de un paradigma manipulativo fisiológico, la mayoría utilizando técnicas lesionales del sistema nervioso. Dentro de esta línea, podemos encontrar a Shepherd I. Franz y a Karl S. Lashley.
Tal como hemos avanzado al inicio del capítulo, la publicación del libro de D. O. Hebb The Organization of Behavior en 1949 marcó una inflexión en la demarcación de la psicobiología como disciplina científica dentro de la neurociencia. En dicha obra, Hebb postuló un modelo sobre el funcionamiento del sistema nervioso en relación a la producción y regulación de la conducta y la cognición. En el modelo presentado por Hebb, se intentaba explicar cómo la actividad neural podría contribuir a la génecis de procesos cognitivos como el aprendizaje la memoria.

Donald Hebb (1904-1985).
De todas formas, uno de avances principales en el conocimiento de cómo el cerebro consolida la información y de cómo ésta se almacena, proviene de la clínica.
En 1957, William Scoville y Brenda Milner constataron que pacientes que habían sufrido una extirpación bilateral de algunas de las estructuras del lóbulo temporal medial te nían una considerable pérdida de memoria, demostrando que estas estructuras estaban implicadas en los procesos de memoria, independientemente de otras funciones cognitivas (Scoville y Milner, 1957).
En 1937, un niño de 7 años (posteriormente conocido en la literatura neuropsicológica como H. M.) sufrió un accidente al ser atropellado por una bicicleta, perdiendo la conciencia durante cinco minutos. Tres años después del hecho, H. M. empezó a mostrar ataques epilépticos menores que se agravaron con el paso del tiempo. Debido a la gravedad de las crisis epilépticas y a la mínima respuesta al tratamiento farmacológico, se consideró la realización de una intervención quirúrgica.
En 1953, cuando H. M. tenía 27 años, William Scoville realizó una resección bilateral del lóbulo temporal medial que redujo los ataques epilépticos del paciente.
Después de la recuperación de su operación, H. M. intentó volver a la rutina de la vida diaria, pero se encontró con un trastorno de memoria de una magnitud muy severa: era incapaz de hacer nuevos aprendizajes, era incapaz de recordar los hechos cotidianos. Cada día era una página en blanco para H. M. en la que, por mucho que escribiera, la construcción de las representaciones del entorno no se podía basar en los recuerdos de las memorias posteriores a su intervención quirúrgica. Inmediatamente después de la operación, H. M. no pudo recordar ni el hospital ni el personal que lo atendió. H. M. podía leer la misma revista día tras día sin familiarizarse con ella.

Figura 54. Reconstrucción de la lesión presentada por el paciente H. M. y comparación de una RM del paciente con la de un control. En la parte superior izquierda, la Dra. Brenda Milner.
La amnesia de H. M. se caracterizaba por un conjunto de rasgos cardinales: tenía una capacidad intacta de memoria inmediata y remota. Sus funciones cognitivas, motoras y perceptuales estaban preservadas. No obstante, sufría una amnesia retrógrada temporalmente graduada y una total y severa amnesia anterógrada. H. M. tenía gravemente afectada su capacidad de memoria declarativa. Por ello, de cara a los recuerdos declarativos, las estructuras del lóbulo temporal medial parecían ser esenciales.
La británica Brenda Milner demostró ser uno de los pioneros en el estudio de la memoria y de otras funciones cognitivas desde un punto de vista neuropsicológico. Esta autora analizó de forma sistemática las secuelas cognitivas producidas por la lesión del lóbulo temporal medial, detallando los déficit presentados por H. M. A partir de los trabajos de Brenda Milner, se gestó la idea de que en el cerebro existen diferentes sistemas de memoria que pueden interactuar y mantenerse preservados, en caso de daño o lesión en uno de ellos. Así, Brenda Milner no sólo se centró en el estudio de la memoria declarativa mediante el estudio del papel del lóbulo temporal medial, sino que también abordó otros sistemas, como el que implica a la corteza prefrontal dorsolateral en la organización temporal de la memoria, o el sistema que incluye al estriado dorsal y a sus conexiones con la corteza, dando soporte a las memorias procedimentales.
En los años ochenta, surgieron modelos animales de amnesia en primates no humanos y en ratas que permitieron identificar las estructuras del lóbulo temporal medial implicadas en la memoria declarativa: el hipocampo y la región parahipocampal (comprendida por la corteza perirrinal, la corteza parahipocampal –o postrinal– y la corteza entorrinal). Estos experimentos pusieron de manifiesto la existencia un circuito neural crítico que involucraba conexiones bidireccionales entre el neocórtex, la región parahipocampal y el hipocampo (Eichenbaum y Cohen, 2001).
De este modo, se pudo comprobar que las áreas de asociación en la corteza tenían una función específica sobre el procesamiento de la información perceptual, motora y cognitiva. Por su parte, la región parahipocampal mediatizaba la convergencia de esta información y ampliaba la persistencia de las representaciones amnésicas corticales, siendo crítica para el aumento de la duración de la memoria de estímulos simples sobre breves periodos, manteniendo, de igual forma, la información sobre la familiaridad de los estímulos durante periodos prolongados de tiempo, incluso con interferencias. El hipocampo codificaba las secuencias de los lugares y acontecimientos que componían las memorias episódicas y era capaz de relacionarlas a través de sus elementos comunes (Eichenbaum, 2000). De este modo, el hipocampo parecía desempeñar un papel crítico en las asociaciones entre estímulos con discontinuidad, tanto temporal como espacial, participando de forma muy clara en funciones cognitivas que implican transitividad y simetría. La memoria declarativa consiste en una amalgama de procesos multifactoriales que involucran una síntesis de representaciones episódicas en nuestro marco general de conocimiento semántico, mediatizando nuestra capacidad de recolección amnésica (Eichenbaum, 2000). Dichas representaciones se reflejan en los patrones de activación neuronal que codifican la secuencia de acontecimientos, los cuales componen una única experiencia personal. Del mismo modo, la organización de la información de los hechos parece ser independiente de los episodios específicos donde se ha adquirido y constituye el conocimiento semántico. Actualmente, existe un consenso unánime alrededor de la existencia de múltiples sistemas de memoria, de los cuales el hipocampo tan sólo se constituye como uno de ellos.
En un primer momento, Cohen y Squire reconocieron funcionalmente a la región hipocampal como un sistema selectivo de memoria declarativa (Cohen y Squire, 1980). Posteriormente, se pudo comprobar que el hipocampo no se requería para la adquisición de algunas habilidades que podían ser expresadas de forma inconsciente. Parece ser que sistemas que incluyen el estriado y el cerebelo mediatizan la memoria procedimental y la adquisición de habilidades motoras y de hábitos, independientemente de las estructuras del lóbulo temporal medial (Knowlton, Mangels y Squire, 1996). Por otro lado, el sistema cerebral que incluye la amígdala se encuentra implicado en los mecanismos de memoria emocional, pudiendo modular la fuerza y consolidación de memorias en los otros sistemas (Cahill y col., 1995). Por último, hay que destacar que existen diversas regiones corticales que son críticas para la memoria de trabajo, para el procesamiento de la información estimular experimentada recientemente, así como para la memoria declarativa a largo plazo (Tulving y Schacter, 1990). Las formas de memoria no declarativa son evolutivamente más antiguas y se han podido estudiar en invertebrados como la Aplysia y la Drosophila. Dentro de este ámbito de análisis, uno de los objetivos principales fue el de intentar abarcar tanto los procesos cognitivos como la propia biología molecular de las células nerviosas, estudiando los mecanismos de plasticidad sináptica y su relación con el almacenamiento de la información en la memoria. ¿Podemos pensar en una unificación más amplia que aquella que nos permite comprender tanto las moléculas como la propia mente?

Eric Richard Kandel (1929).
A principios de los años setenta, diferentes estudios en invertebrados mostraron que formas de aprendizaje como la habituación, la sensibilización o incluso el condicionamiento clásico, se basaban en cambios estructurales y funcionales en las sinápsis entre las neuronas que mediaban la conducta modificada (Kandel y Squire, 2000).

Figura 55. Aplysia en diferentes estados conductuales. En la parte izquierda de la imagen, el animal se desplaza lentamente. En el medio de la imagen, podemos observar cómo la Aplysia alza la cabeza después de oler la comida en el agua. A la derecha de la imagen, se puede observar cómo la Aplysia muerde. (Fuente: Timothy Kang, Jin-sheng Wu y Jian Jing).
En los años noventa, la aparición de técnicas de manipulación génica permitió poder relacionar genes específicos con los mecanismos de plasticidad sináptica, e incluso con la conducta y la cognición. Del mismo modo, el poder combinar estudios genéticos con estudios conductuales en Drosophila, Aplysia y ratones permitió identificar que las formas de memoria declarativa y no declarativa compartían algunos elementos celulares y moleculares comunes. De este modo, se pudo comprobar la existencia de diversas moléculas de señalización críticas para convertir la plasticidad transitoria a corto plazo en una memoria persistente a largo plazo, tanto para las memorias de tipo declarativo como no declarativo (Kandel y Squire, 2000).
4.8.¿Cómo ha madurado la psicobiología en el estudio de los procesos mentales?
Tanto en las investigaciones orientadas a los procesos de aprendizaje y memoria como en otras que han tratado la atención, las emociones o incluso la comunicación, se ha obtenido una ingente cantidad de datos a raíz de diferentes modelos y estudios en animales. El capítulo IV, “Anatomía del sistema nervioso” de esta obra ha seguido una orientación fundamentalmente relacionada con la anatomía estructural y funcional humana y todos los procesos derivados de la misma. No obstante, no podemos soslayar ni obviar que una fuente esencial en el conocimiento de la psicobiología proviene de lo que conocemos como anatomía comparada.
Este planteamiento se ha sustentado en el estudio de individuos filogenéticamente diferentes, analizando la estructura cerebral e intentando discernir si las diferencias anatómicas y estructurales encontradas nos pueden explicar las diferencias existentes en la conducta o la propia cognición. Uno de los rasgos que más nos puede llamar la atención es el tamaño del cerebro humano. Aproximadamente, nuestro cerebro pesa unos 400 gramos en el momento del nacimiento, triplicándose su peso durante los primeros 3 años de vida. Hacía los 11 años, alcanzamos un peso medio de unos 1.400 gramos. No obstante, existen animales con el cerebro más grande. Por ejemplo, el cerebro de un elefante pesa unos 5 kilos. De todas formas, el cuerpo del elefante es mucho más pesado que el de una persona; si comparamos el peso del cerebro en referencia al peso relativo del cuerpo nos damos cuenta como el ser humano tiene uno de los cerebros más grandes. No obstante, otros animales como los delfines o pequeños roedores también tienen cerebros muy grandes teniendo en cuenta el tamaño relativo del cuerpo. Es en estos casos donde la anatomía comparada nos permite ver que las diferencias cognitivas encontradas entre el hombre y otros animales han de depender más de la complejidad de las interconexiones neuronales y del tamaño selectivo de ciertas áreas cerebrales que del peso total del cerebro, aunque sea teniendo en cuenta el tamaño relativo del cuerpo.
En los últimos años, se ha ido vislumbrando una compleja amalgama de relaciones teóricas y metodológicas entre los diferentes campos que han contribuido de una forma interdisciplinar a la potenciación del estudio científico del estudio nervioso y de todo aquello que conlleva. A veces, puede resultar difícil distinguir el límite entre las contribuciones diferenciales y los objetos específicos de estudio de cada uno de estos campos. De este modo, en los últimos años han ido surgiendo cantidades ingentes de trabajos enmarcados dentro del campo de la psicobiología, demarcándose como disciplinas nuevas claramente diferenciadas del resto de aproximaciones científicas existentes. Partiendo de esta conceptualización, debemos asumir que la diferencia más importante que puede establecerse, dentro de esta nueva perspectiva de estudio y las diferentes aproximaciones que intentan comprender el funcionamiento del cerebro subyacente a la conducta y la cognición, es el nivel de análisis que se utiliza. De este modo, algunas líneas de pensamiento sugieren que la psicobiología utiliza un nivel de análisis más holístico que el resto de aproximaciones. El análisis exhaustivo de los procesos mentales a través del estudio de las neuronas, de los circuitos y de los sistemas cerebrales ha proporcionado nuevos modelos que han servido para guiar el trabajo experimental, tanto en biología como en psicología.
Autores como Kandel y Squire sugieren que, para que el estudio del sistema nervioso se pueda decantar a solventar los problemas abordados por las ciencias biológicas y psicológicas, se necesitarán nuevas aproximaciones moleculares y celulares y su uso en conjunción con los sistemas conductuales y cognitivos. De esta manera, seremos capaces de relacionar determinados sucesos moleculares y cambios específicos en el interior de las neuronas con procesos mentales como la percepción, la memoria, el lenguaje, el pensamiento o, incluso, la conciencia (Kandel y Squire, 2000).
5.Las técnicas de investigación en psicobiología
La psicobiología ha ido desarrollando un conjunto de técnicas que le permiten el estudio de la conducta y los procesos cognitivos, así como la participación del sistema nervioso (SN) en éstos.
Lo idóneo sería utilizar seres humanos como sujetos experimentales, pero algunas de las técnicas de estudio implican la manipulación directa del SN (por ejemplo, la inducción de lesiones cerebrales). Así que, por motivos éticos ese tipo de técnicas se descartan en humanos, a no ser que se contemplen dentro del marco terapéutico (siguiendo el ejemplo, extirpación de un área del cerebro debido a la presencia de un tumor).
Eso no quiere decir que la psicobiología esté falta de datos fiables sobre la actividad cerebral. Por una parte el uso de animales de experimentación suple parte de estas carencias; por la otra, el desarrollo de las técnicas de neuroimagen permite obtener registros a tiempo real de la actividad cerebral.
En psicobiología, está ampliamente extendido el uso de animales en la experimentación, pues ello permite utilizar un gran número de técnicas que posibilitan la manipulación directa del sistema nervioso. Las especies más utilizadas son los roedores, tanto ratas como ratones, aunque también es posible utilizar primates u otras especies, como gatos o perros.
Las principales ventajas de trabajar con animales como sujetos experimentales es que permiten un control exhaustivo del historial del individuo (nacimiento, dieta, condiciones de mantenimiento, posibles enfermedades, etc.), facilidad en la manipulación y, sobre todo, la posibilidad de aplicar técnicas que éticamente no sería posible aplicar en humanos (por ejemplo, la inducción de lesiones).
Los inconvenientes de trabajar con animales en psicobiología es que hay ciertas diferencias estructurales y funcionales entre especies que pueden hacer que los resultados no sean directamente extrapolables. Además, los animales no pueden verbalizar los estados en los que se encuentran, con lo cual el investigador debe inferir cuáles son, lo que puede dar lugar a interpretaciones erróneas de los procesos que se estudian.
Tanto en humanos como en animales, las técnicas que se pueden clasificar en técnicas invasivas o no invasivas.
Las técnicas invasivas son aquellas en que se introduce algún elemento en el organismo del sujeto experimental (por ejemplo, inyectar un fármaco, insertar electrodos en el cerebro), aunque de forma más amplia puede utilizarse para definir los procedimientos que causan malestar físico o tengan efectos nocivos (por ejemplo, lesiones cerebrales). Las no invasivas son aquellas técnicas que no introducen ningún elemento en el organismo del sujeto (por ejemplo, registros en la superficie de la piel), y por extensión aquellos métodos que no son molestos ni dañinos.
Finalmente, el estudio del SN puede realizarse utilizando sujetos vivos o, por el contrario, realizar un análisis post-mortem de éste. Los estudios in vivo permiten estudiar en directo el funcionamiento del SN (por ejemplo, actividad eléctrica o química), tanto en estado de reposo como mientras se realizan tareas conductuales. Las técnicas post-mortem permiten un estudio anatómico y estructural del SN mucho más detallado (por ejemplo, trazado de conexiones neuronales, localización de receptores para neurotransmisores, etc.).
5.1.Cirugía estereotáxica
La cirugía estereotáxica es un procedimiento quirúrgico que permite acceder a estructuras profundas del cerebro con el objetivo implantar dispositivos que permitirán su estudio.
Gracias a ésta se pueden implantar electrodos, cánulas, obtener muestras de tejido, realizar lesiones o inyectar fármacos en el cerebro. Esta técnica permite implantar estos elementos en estructuras concretas del cerebro sin causar demasiados daños en el resto de tejido cerebral adyacente.
Es conveniente recalcar que la estereotaxia no es un método de estudio, sino una herramienta que permite introducir instrumental en el cerebro. El instrumental insertado será aquel que realmente estudie la actividad/función del cerebro.
5.1.1.Procedimiento quirúrgico
Para realizar esta técnica, se necesita:
•Un atlas estereotáxico.
•Un aparato de estereotaxia.

Figura 56. Esquema de los principales elementos de la cirugía estereotáxica: A) representación de una sección del atlas de estereotaxia de roedor; B) señalización del punto bregma en el cráneo de una rata; C) imagen del aparato de estereotaxia para roedores.
El atlas de estereotaxia se utiliza para localizar estructuras cerebrales. En este atlas, cada hoja representa una sección seriada del cerebro donde aparecen las estructuras cerebrales correspondientes a cada posición del cerebro. Además, en cada hoja encontramos tres coordenadas de orientación en función de un punto de referencia llamado bregma, que está situado en el cráneo, y es el lugar de unión de las suturas frontal y central del cráneo. Las coordenadas de orientación son:
•Antero-posterior: estructuras cerebrales que se encuentran por delante de bregma o por detrás de bregma.
•Lateralidad: estructuras cerebrales que se encuentran hacia la izquierda o hacia la derecha de bregma.
•Profundidad: marca a qué profundidad se encuentran las estructuras cerebrales respecto a la parte superior del cráneo, donde se encuentra bregma.
El atlas nos servirá para escoger las coordenadas antero-posterior, lateral y de profundidad más adecuadas para llegar a la estructura cerebral que queremos registrar/lesionar/estimular/etc.
Una vez escogidas las coordenadas, se sitúa al sujeto experimental en el aparato de estereotaxia. Este aparato consta de un soporte para la cabeza, que evitará que ésta se mueva durante la cirugía, y un soporte de instrumental, donde se colocará el elemento que se insertará en el cerebro (electrodo, cánula, etc.). El soporte de instrumental está unido a un mecanismo calibrado que permite desplazar el soporte en las tres direcciones de las coordenadas. Primero, se coloca el soporte con el instrumental sobre las coordenadas antero-posterior y lateral, y a continuación se realiza un pequeño agujero en el cráneo para ajustar la coordenada de profundidad e introducir el instrumental. Posteriormente, se sutura la herida y se deja que el sujeto se recupere de la cirugía antes de realizar las pruebas conductuales pertinentes.
Si se diera el caso de que fuera necesario realizar diversas estimulaciones/registros/ recogidas de muestras, el instrumental se fija al cráneo de forma permanente con cemento dental.
Siempre que se realiza un procedimiento estereotáxico es imprescindible verificar que se ha realizado correctamente, es decir, que el electrodo, cánula, etc. alcanzó las coordenadas prefijadas. Para ello, se recurre a los métodos histológicos.
5.1.2.Validación histológica
Las técnicas histológicas se utilizan para verificar que el procedimiento estereotáxico se ha realizado con éxito, ya que nos permiten visualizar la morfología del cerebro.
El primer paso consiste en fijar el tejido cerebral con sustancias químicas como la formalina. La fijación permite que el tejido pueda conservarse sin descomponerse, y además lo endurece, lo que facilita su manipulación. Normalmente, para fijar el tejido se perfunde al sujeto (sustituir la sangre por el fijador) y posteriormente se extrae el cerebro de la cavidad craneal.
Una vez fijado el cerebro, se procede a seccionarlo en láminas finas de unas pocas micras con la ayuda de un microtomo o un criostato. Las láminas se montan sobre portaobjetos de cristal y se procede a teñir del tejido.
La tinción se realiza para poder visualizar con más detalle las estructuras cerebrales. Los tintes que se utilizan son absorbidos por las células o por partes concretas de éstas (por ejemplo, por los somas o los axones). El colorante más utilizado es el violeta de cresil, que tiñe los núcleos de las neuronas. Otras tinciones que se utilizan son la tinción de Golgi-Cox que tiñe específicamente membrana o los colorantes que tiñen mielina.
Finalmente, las secciones cortadas y teñidas se analizan bajo el microscopio para estudiar la zona de implantación y comprobar que es la correcta.
5.1.3.Estereotaxia en humanos
Pese a que nos hemos centrado en explicar el procedimiento estereotáxico en animales, esta técnica también se utiliza en humanos, aunque en este caso no como método de experimentación, sino como procedimiento quirúrgico en procesos terapéuticos. Por ejemplo, para extracción de tumores, obtención de muestras, implantación de electrodos de estimulación, etc.
En este caso, la comprobación de la correcta ubicación del elemento insertado en el cerebro se realiza durante la misma intervención, monitorizando todo el procedimiento con técnicas de neuroimagen, como la resonancia magnética, que permitan visualizar por dónde avanza el elemento.
5.2.Técnicas de registro de la actividad neuronal
Las técnicas de registro de la actividad neuronal permiten registrar los cambios eléctricos y químicos que se producen mientras el sujeto experimental realiza una tarea en un grupo concreto de neuronas.
5.2.1.Registro de la actividad eléctrica neural
Las técnicas de registro de la actividad neuronal permiten registrar tanto los potenciales de acción que se dan en los axones, como los potenciales postsinápticos originados en las dendritas. De esta forma, puede saberse si la estructura cerebral que está siendo estudiada se activa durante la realización de la tarea que ejecuta el sujeto.
El registro se realiza mediante electrodos implantados en la zona del cerebro que se pretende estudiar.
Estos registros se pueden realizar sobre una sola neurona o sobre múltiples neuronas.
1)Cuando se realiza el registro de una sola unidad puede estudiarse tanto la actividad intracelular de esa célula como de la actividad extracelular. Los registros intracelulares dan información sobre los cambios de potencial de membrana y los extracelulares sobre la tasa de disparo de la neurona.
2)Los registros de múltiples unidades permiten captar las señales eléctricas de un gran número de neuronas, de forma que permite registrar la actividad eléctrica de un área determinada. El registro que ofrece es la suma de la acti vidad de las neuronas.
Los electrodos que se utilizan en los registros de una y de múltiples unidades difieren en su tamaño: los de registro único reciben el nombre de microelectrodos, mientras que los de múltiples unidades son los macroelectrodos.
5.2.2.Registro de la actividad química
Las técnicas de actividad química permiten analizar las secreciones de neurotransmisores y neuromoduladores por parte de las neuronas, así como detectar la presencia de metabolitos de degradación de éstos. El aumento de estas secreciones en un área determinada del cerebro, durante la realización de una tarea conductual, indica la implicación de esa área en la tarea.
En este punto, se describirán las técnicas que permiten el estudio de la actividad química del cerebro in vivo. Las técnicas que permiten estudiar esta actividad cerebral post mortem se explicarán en el punto 5.7.
La microdiálisis es una técnica que permite registrar la actividad química del SN. Para ello, es necesario implantar una sonda de diálisis en la región cerebral que se pretende estudiar. La punta de la sonda es semipermeable y permite el paso de las moléculas por difusión. Las muestras recogidas por la sonda son analizadas por un cromatógrafo, un aparato que determina la composición de la muestra.
Otra técnica que permite el registro de la actividad química del cerebro es la tomografía por emisión de positrones (PET, del inglés Positron Emission Tomography). Los fundamentos de esta técnica de neuroimagen se explicarán en el apartado 5.10, aunque sirva como adelanto indicar que esta técnica permite tanto el estudio de la actividad global del cerebro, como de un sistema de neurotransmisión concreto. Consiste en inyectar sustancias marcadas radioactivamente que serán captadas por las neuronas (por ejemplo, glucosa o el precursor de un neurotransmisor). Aquellas zonas más activas tendrán más concentración de estas sustancias marcadas, que emiten una señal radioactiva que es captada por un aparato y traducida en imágenes.
5.3.Técnicas de estimulación de la actividad neuronal
La estimulación de áreas concretas del SN es una estrategia que permite averiguar en qué funciones participa el área estimulada, observando qué cambios conductuales se producen en el sujeto después de la estimulación. La estimulación puede ser eléctrica o química.
1)La estimulación eléctrica se realiza mediante electrodos implantados en áreas concretas del cerebro, por los que se hace pasar una corriente eléctrica de baja intensidad. Esta corriente estimulará la actividad de las neuronas próximas a la punta del electrodo.
2)La estimulación química se produce inyectando determinadas sustancias en áreas concretas del cerebro a través de una cánula. Las sustancias que suelen administrarse para estimular son pequeñas cantidades de aminoácidos excitatorios, como el ácido glutámico. Su principal ventaja es que la estimulación es más localizada que en el caso de la estimulación eléctrica, ya que sólo activa los somas, no los axones.
5.4.Técnicas de registro psicofisiológico
Las técnicas de registro psicofisiológico permiten estudiar la actividad del SN de forma no invasiva, mediante mecanismos de registro que se colocan en la superficie del cuerpo. Aunque pueden aplicarse a cualquier tipo de estudio, se han utilizado fundamentalmente en el estudio de los mecanismos del sueño y de las emociones. Las técnicas más utilizadas en psicobiología se describen a continuación.
5.4.1.Registro de la actividad de la actividad cerebral
El electroencefalograma (EEG) permite registrar la actividad eléctrica cerebral de forma global a tiempo real, utilizando una serie de electrodos situados, estratégicamente, en diferentes zonas de la superficie del cuero cabelludo. Estos electrodos recogen la actividad eléctrica y la transmiten a una máquina que se encarga de traducir esas señales en ondas. Esta técnica se comentará con más profundidad en el apartado 5.10.
Los patrones de estas ondas pueden variar en función del estadio del desarrollo cerebral, el estado de conciencia o en algunas patologías cerebrales, como la epilepsia.
Esta técnica también permite registrar cambios en la actividad eléctrica debido a la aparición de diferentes acontecimientos, como, por ejemplo, durante la presentación de estímulos sensoriales (visuales, auditivos, etc.). Estos cambios producidos por la presentación momentánea de un estímulo se llaman potenciales evocados.
5.4.2.Registro de la actividad del SN somático
Las técnicas de registro de actividad somática más utilizadas son el electromiograma (EMG) y el electrooculograma (EOG).
El EMG recoge información sobre el grado de la tensión muscular mediante electrodos situados en la superficie del grupo muscular que interese, por ejemplo, en los músculos faciales, piernas, etc.
El EOG registra los movimientos de los ojos, al situar los electrodos en los músculos que rodean los ojos.
5.4.3.Registro de la actividad del SN autónomo
Como medidas del SN autónomo, suele registrarse la actividad del sistema cardiovascular. Normalmente, suelen medirse la frecuencia cardíaca utilizando el electrocardiograma (ECG), que registra la actividad cardíaca mediante unos electrodos situados en distintas zonas del pecho, y la tensión arterial, utilizando un esfigmomanómetro. E incluso pueden registrarse los cambios de volumen sanguíneo (volemia) mediante los pletismógrafos.
Otra variable que acostumbra a registrarse en los estudios de psicobiología es la actividad electrodérmica (también conductancia o resistencia galvánica de la piel), es decir, los cambios que experimenta la piel en su capacidad de conducir la electricidad, relacionados con la sudoración. Así, un incremento de la sudoración del individuo, debida por ejemplo a una emoción intensa, aumenta la conductancia de la piel y, por tanto, disminuye la resistencia galvánica de la piel. El registro se hace colocando unos detectores en las puntas de los dedos de las manos.
5.5.Estudio del SN mediante lesiones cerebrales
La observación conductual de un sujeto que ha sufrido la lesión de un área concreta del cerebro nos permite estudiar en qué procesos está implicada esa área: aquellas conductas que aparezcan alteradas dependerán de las áreas lesionadas. Aunque esto no garantiza que el área lesionada sea la única área implicada en la función que estamos observando.
La mayor parte de estudios de lesiones se realizan induciendo lesiones a animales de experimentación; en el caso de los humanos, se utilizan voluntarios que han sufrido algún tipo de lesión cerebral (por ejemplo, traumatismos craneoencefálicos o accidentes vasculares).
5.5.1.Animales: inducción de lesiones
En el caso de los animales, lo primero que hay que plantearse es si las lesiones serán unilaterales o bilaterales (recordemos que la mayor parte de las estructuras cerebrales son bilaterales). Las lesiones unilaterales son más leves, pero hay que tener en cuenta que la estructura que permanece intacta mantiene su función y puede enmascarar los efectos de la lesión.
Además, debe considerarse la posibilidad de que, con el paso del tiempo, el área lesionada pueda conseguir cierto grado de recuperación, o que otras áreas cerebrales asuman las funciones de la lesionada.
Lesiones por aspiración de tejido neural
Esta técnica se utiliza cuando se desea lesionar corteza, tanto cerebral como cerebelar, ya que son tejidos superficiales fácilmente accesibles al cirujano. La forma de hacerlo es succionando el tejido mediante una pipeta. Esta técnica permite mantener intactos los axones que hay por debajo de la corteza y los vasos sanguíneos.
Lesiones eléctricas
Son adecuadas para realizar lesiones en estructuras subcorticales. Se realizan haciendo pasar corriente eléctrica por electrodos. Las lesiones se denominan electrolíticas si la corriente es continua: las neuronas próximas al electrodo generan una serie de reacciones químicas que conducen a la muerte de las neuronas que las rodean. Si la corriente es alterna y de alta frecuencia, se trata de lesiones por radiofrecuencia. En este caso, el calor generado es el que destruye el tejido.
La principal desventaja de estas lesiones es que son poco selectivas y puede implicar que se lesionen áreas adyacentes o de fibras de paso.
Lesiones químicas o excitotóxicas
Consisten en la administración intracerebral de sustancias químicas que producirán muerte neuronal. Suelen utilizarse neurotoxinas o aminoácidos excitatorios; estos últimos, al ser administrados en dosis altas, sobreestimulan las neuronas e inician los mecanismos de muerte celular programada. Las estructuras afectadas son los somas cercanos a la punta de la cánula por la que se inyectan los compuestos químicos, sin afectar a los axones de paso.
El aminoácido más utilizado es el ácido glutámico, y las neurotoxinas más comúnmente usadas, el ácido kaínico y el ácido iboténico.
Hay sustancias que producen lesiones mucho más selectivas, entre ellas la 6-hidroxidopamina (6-HD), que es una sustancia muy parecida a la dopamina, y la noradrenalina, que al inyectarse en estructuras catecolaminérgicas es captada e incorporada a los somas de estas neuronas y, una vez dentro, las destruye. Otras sustancias utilizadas para realizar lesiones selectivas son la saporina, para neuronas colinérgicas, o la 5,7-dihidroxitriptamina, para las neuronas serotoninérgicas.
Seccionamiento de fibras
Este método consiste en seccionar las conexiones neurales, de modo que, interrumpiendo las conexiones axonales, se estudian las implicaciones de vías de comunicación en la conducta. El seccionamiento de las fibras del cuerpo calloso recibe el nombre de comisurectomía y permite estudiar las funciones y el procesamiento de información de cada hemisferio.
Lesiones reversibles
Son aquellas lesiones que no son permanentes y tras las cuales el sujeto recupera su funcionamiento normal. Consisten, básicamente, en suspender momentáneamente la actividad eléctrica y metabólica de un área determinada. Sus consecuencias son mínimas para el sujeto experimental.
Uno de los métodos es la inyección de un anestésico local, como la lidocaína, que interrumpe la actividad cerebral mientras duran los efectos de la droga.
El otro método utilizado es el enfriamiento del tejido. Se utiliza un criodo que va enfriando lentamente el tejido, de forma que se reduce progresivamente la actividad neuronal sin llegar a una temperatura que produzca daños tisulares. Este mismo criodo calienta también gradualmente el tejido para que recupere su función normal.
5.5.2.Humanos: estudios con pacientes con lesiones cerebrales
Por consideraciones éticas, no pueden practicarse deliberadamente lesiones a humanos con finalidades experimentales, aunque sí pueden realizarse estudios con pacientes que hayan sufrido algún tipo de lesión cerebral o se les haya extirpado quirúrgicamente alguna estructura cerebral con finalidades terapéuticas.
Algunos ejemplos son los estudios realizados con los pacientes comisurectumizados (corte de las fibras del cuerpo calloso), el caso del paciente H. M. (extirpación bilateral de los lóbulos temporales como paliativo de una epilepsia) o el caso de Phileas Gage (lesión de la corteza prefrontal por un accidente laboral).
5.6.Técnicas farmacológicas
Las técnicas farmacológicas consisten en administrar una sustancia al sujeto experimental y observar cómo ésta influye en su conducta. Las sustancias pueden ser fármacos, como un antidepresivo, o drogas, como la cocaína.
En el caso de los estudios de psicobiología, antes de empezar un estudio del tipo farmacológico hay que asegurarse de que la sustancia tiene la capacidad de atravesar la barrera hematoencefálica y, por tanto, llegar al SN.
Hay que tener en cuenta que hay diferentes vías de administración y que, dependiendo de la que se utilice, el efecto de la sustancia puede ser más o menos intenso.

Figura 57. Duración de los efectos de las drogas/fármacos en función de la vía de administración.
La vía oral es la más lenta, ya que la sustancia debe pasar por el tracto digestivo antes de ser absorbida y alcanzar el SN. Además, su efecto puede verse disminuido, ya que durante el proceso digestivo parte de la sustancia puede metabolizarse. En contrapartida, es la vía con efectos más duraderos.
Las vías inhalada y endovenosa son las más rápidas. Estas vías permiten que la sustancia llegue rápidamente al SN, aunque el efecto decae más rápidamente.
Otro tipos de administraciones son la subcutánea, intramuscular, intraperitoneal (utilizada sobre todo en animales), tópica y, en algunos casos, esnifada. Finalmente, existe la posibilidad de inyectar el fármaco directamente en el cerebro o en el sistema ventricular.
5.7.Técnicas de estudio del SN post mortem
Las técnicas post mortem requieren el sacrificio de los sujetos experimentales, en el caso de que se trate de animales de experimentación, o la obtención de muestras de tejido humano de personas fallecidas que hayan donado sus cuerpos a la ciencia. Estas técnicas permiten estudiar con más detalle la anatomía del sistema nervioso e identificar componentes que son imposibles de estudiar in vivo (orgánulos celulares, receptores, enzimas, etc.).
5.7.1.Técnicas histológicas
La histología permite el estudio de la estructura de las células, en este caso neuronas y glía. Las técnicas clásicas de tinción (violeta de cresil, tinción de Golgi-Cox) permiten una visión grosso modo de la morfología de las neuronas, mientras que otras técnicas más modernas permiten estudiar las conexiones neuronales que se establecen o visualizar los orgánulos celulares.
Así las técnicas histológicas, además de utilizarse para la validación de las implantaciones estereotáxicas, permiten estudiar la anatomía cerebral (tamaño de las áreas, tipos celulares, etc.).
Un tipo interesante de tinción es la que se utiliza en la técnica de los trazadores de conexiones, que permiten estudiar las aferencias y eferencias de las áreas cerebrales. En el caso de querer estudiar las aferencias de un área concreta, se inyecta una sustancia que será recaptada por los botones terminales que llegan a esa área y que será transpotada retrógradamente hasta el soma de esas neuronas (por ejemplo, oro fluorado o peroxidasa de rábano). Posteriormente, se extrae el cerebro, se prepara el tejido y se examina bajo el microscopio; de esta manera, se puede seguir el recorrido de la sustancia.

Figura 58. A) imagen de una sección de tejido teñida con violeta de Cresil; las flechas indican algunas agrupaciones de somas neuronales; B) imagen de grupos neuronales obtenida de mediante microscopio electrónico; las flechas indican zonas sinápticas; C) reconstrucción de células nerviosas mediante microscopio de barrido electrónico; se pueden observar neuronas y glía.
Si se quieren estudiar las eferencias de un área, se inyecta una sustancia en la región de estudio, que será captada por las dendritas de esa zona y transportada anterógradamente hacia los axones (por ejemplo, la proteína PHA-L). Como en los trazadores retrógrados, posteriormente se extrae el cerebro y, después de preparar el tejido, se estudia el recorrido de la sustancia.
En estos casos, se utilizan microscopios ópticos para observar con detalle el tejido teñido o el recorrido de los trazadores. Este tipo de microscopios son útiles para estudios anatómicos, pero no permiten visualizar los orgánulos intracelulares como, por ejemplo, las vesículas sinápticas. Para poder estudiar este tipo de estructuras celulares, se utiliza el microscopio electrónico. Si lo que se pretende es obtener imágenes tridimensionales de los componentes de las secciones de cerebro, se utiliza el microscopio electrónico de barrido, aunque su amplificación es menor que la del microscopio electrónico estándar.
5.7.2.Inmunocitoquímica
Las técnicas inmunocitoquímicas son un tipo de técnicas histológicas que permiten identificar elementos del sistema nervioso como orgánulos celulares, neurotransmisores, enzimas de síntesis o de degradación de neurotransmisores, receptores para neurotransmisores, etc.
La técnica consiste en crear artificialmente sustancias químicas que reconozcan específicamente al elemento que se quiere estudiar; estas sustancias reciben el nombre de anticuerpos. Así, una vez extraído el cerebro y preparado el tejido, éste se incuba en una solución que contiene el anticuerpo que se unirá al elemento que se desea estudiar. Posteriormente, se procede a la localización del anticuerpo o bien porque éste emite señales bajo ciertas condiciones (por ejemplo, señales radioactivas o fluorescentes) o porque lo exponemos a un segundo anticuerpo que reconoce al primero y que emite una señal.
Estas técnicas pueden utilizarse también para medir la actividad cerebral a través de detectar proteínas que se sintetizan cuando las neuronas se activan (gracias a los genes de acción inmediata), como la proteína c-Fos o la proteína Jun.
5.7.3.Autorradiografía
La autorradiografía es una técnica que consiste en marcar, radioactivamente, una sustancia (ligando) que se unirá a algún elemento del SN. El tejido cerebral se expone al ligando durante un tiempo determinado sobre una placa fotográfica protegida de la luz, de forma que la radiactividad se imprime en la placa fotográfica que, posteriormente, se revela como una fotografía. La imagen revelada es similar a una radiografía del tejido cerebral en la que las zonas más oscuras marcan dónde se encuentra el ligando.
Se utiliza, principalmente, para estudiar la localización de los receptores de los neurotransmisores, y también como medida de actividad metabólica. En el caso de los receptores, lo que se marca radiactivamente son agonistas o antagonistas del receptor, que se unirá a éstos permitiendo observar posteriormente en qué zonas del cerebro se encuentran localizados. Cuando se mide la actividad metabólica, se inyecta al sujeto experimental 2-desoxiglucosa (2-DG) marcada radiactivamente, que es captada por las neuronas, así que la autorradiografía mostrará como zonas oscuras las áreas donde se ha acumulado la 2-DG radiactiva, reflejando así las áreas más activas.
5.7.4.Hibridación in situ
La hibridación in situ proporciona una medida indirecta de la síntesis de proteína, ya que permite localizar la presencia de una secuencia de ARNm que, posteriormente, se transcribirá en una proteína (receptores, enzimas, etc.). Para localizar este ARNm, se diseñan sondas complementarias a la secuencia que se pretende estudiar (recuérdese la ley de complementariedad de bases). El tejido cerebral, una vez preparado, se incuba en una solución que contiene la sonda, que se unirá específicamente al material genético objeto de estudio. Estas sondas emiten señales que permiten detectarlas bajo ciertas condiciones, y así cuantificar y localizar dónde se encuentra el ARNm. Las zonas más oscuras serán aquellas donde hay más concentración de sonda, es decir, más ARNm y se infiere que más síntesis de proteína.
5.8.Técnicas genéticas
La psicobiología también estudia la participación de los genes en la conducta. Puede centrarse en estudiar si algún rasgo tiene base genética (por ejemplo, ansiedad, inteligencia), qué tipo de herencia sigue (unifactorial o multifactorial) o intentar identificar los genes implicados en la expresión de un rasgo o enfermedad psiquiátrica (por ejemplo, qué genes están implicados en la esquizofrenia o en la depresión).
5.8.1.Técnicas genéticas en humanos
En el caso de utilizar humanos como sujetos de estudio, se utilizan métodos que no implican ningún tipo de manipulación, como es el caso de los estudios de familias, de adopciones o de gemelos, basados en estudiar la concordancia de rasgos entre familiares, lo que permite considerar el efecto de los genes y del ambiente en la expresión de los rasgos. También puede estudiarse el tipo de transmisión de un rasgo mediante árboles genealógicos. Finalmente cabe la posibilidad de analizar el genoma de los sujetos para buscar alteraciones génicas, coincidencias genéticas entre familiares afectados de una misma psicopatología, variaciones alélicas, etc., que puedan explicar por qué unos familiares están afectados y otros no.
5.8.2.Técnicas genéticas en animales
El uso de animales permite ciertas manipulaciones, tanto en lo que se refiere al control de los apareamientos de los sujetos experimentales, con el fin de potenciar rasgos, como las que implican manipulación directa del genoma del sujeto experimental.
1)Dentro de las técnicas de control de los apareamientos, se encuentra:
a)La cría selectiva: aparea animales que expresan un rasgo de forma similar entre sí (por ejemplo, animales muy ansiosos entre sí).
b)Las cepas consanguíneas: se aparean hermanos entre sí, durante varias generaciones, con el objetivo de conseguir sujetos genéticamente idénticos.
2)Las técnicas que permiten manipular directamente el genoma están siendo ampliamente utilizadas en la actualidad. Las principales son la creación de animales knock-out y la generación de animales transgénicos:
a)La técnica del knock-out permite eliminar la expresión de un gen concreto; así se puede estudiar cuál es la implicación de este gen en la conducta a través de las consecuencias de su eliminación.
b)En el caso de la creación de animales transgénicos, se introduce un gen de una especie, por ejemplo la humana, en otra especie diferente, como en un ratón. De esta forma, el ratón expresará el gen humano, lo que permite estudiar de forma aislada y controlada su implicación en un rasgo o enfermedad.
5.9.Pruebas conductuales
La mayoría de las técnicas comentadas con anterioridad se combinan con técnicas conductuales, de forma que se puede estudiar cómo influye la inyección de un fármaco, la lesión de un área cerebral, etc., en la conducta del sujeto experimental o en sus funciones cognitivas.
En humanos se pueden utilizar baterías de test o pruebas específicas que evalúen los procesos de memoria, de aprendizaje, atención, etc., (por ejemplo, las diferentes subescalas del test de inteligencia WAIS, el test de Stoop, etc.) después de, por ejemplo, haber inyectado una dosis de anfetamina al sujeto experimental. También se pueden diseñar experimentos específicos para evaluar procesos psicológicos, como por ejemplo provocar reacciones emocionales y estudiar qué parámetros cambian o qué áreas se activan.

Figura 59. a) Aparato de campo abierto para roedores; permite medir ansiedad y exploración. b) Laberinto elevado para roedores: permite medir ansiedad.
En animales, se puede estudiar la conducta natural del animal después de haber realizado un procedimiento experimental como los anteriormente descritos, por ejemplo, ver si una lesión cambia hábitos alimenticios o conductas de agresividad. Igualmente, existen pruebas específicas que permiten evaluar en animales procesos como la ansiedad (laberinto elevado, campo abierto), el aprendizaje y memoria (por ejemplo, cámaras de condicionamiento operante, laberinto radial, laberinto de Morris) o la atención (pruebas de startle o sobresalto).
5.10.Técnicas de neuroimagen
El cerebro humano siempre ha sido considerado un gran enigma y, desde hace cientos de años, muchos científicos y especialistas han intentado estudiarlo. De hecho, hoy en día seguimos haciéndolo para intentar obtener nueva información que nos permita entender y explicar cientos de procesos, desde nuestro propio comportamiento y funcionamiento como humanos, hasta el origen y evolución de diferentes patologías.
Fue a partir de los años setenta, con la aparición de las primeras técnicas de neuroimagen, que este campo de estudio vivió una gran revolución, ya que se pudo empezar a monitorear las funciones cerebrales de una forma más detallada y, como consecuencia, hubo un gran avance en la diagnosis médica.
Este subapartado tiene por objetivo analizar y describir algunas de las diferentes técnicas que, hoy en día, se utilizan tanto en la práctica clínica como científica que nos permiten estudiar el sistema nervioso de una forma más pormenorizada y precisa. De forma más concreta, se procederá a:
•Conocer diferentes técnicas de neuroimagen.
•Tener una idea general sobre los principios físicos en los que se basan cada una de las técnicas que estudiaremos.
•Saber cómo funciona cada técnica de neuroimagen.
•Conocer en qué patologías se aplican estas técnicas y qué información nos dan.
•Saber diferenciar una técnica de otra.
•Conocer las ventajas y desventajas que presentan estas técnicas.
5.10.1.Resonancia magnética (RM)
Puede decirse que la resonancia magnética (RM) es la técnica de neuroimagen que más se utiliza en el campo de las neurociencias sobre todo cuando se quiere llevar a cabo estudios estructurales.

Figura 60. Equipo de resonancia magnética (figura adaptada de Purves et al., 2008).
Un aspecto muy importante que hemos de tener presente es que la RM no utiliza ningún tipo de rayos X, sino que se basa en la utilización de ondas electromagnéticas a una frecuencia de radio del orden de los megahertzios. Para hacernos una idea, este tipo de ondas son muy parecidas a las ondas de la radio comercial. Por tanto, la RM puede considerarse como una técnica completamente inocua para el organismo.
Para poder obtener la imagen del interior de nuestro organismo necesitamos que, cuando las ondas electromagnéticas se envíen, sean recibidas y posteriormente reenviadas por algún tipo de receptor-emisor. En nuestro caso, los que hacen la función de antena receptora-emisora son los protones de algunos núcleos atómicos, entre ellos los protones de los átomos de hidrógeno (Alvarez, J., Ríos, M., Hernández, JA., Bargalló, N., y Calvo, B. 2008).
El escáner de RM está constituido por un gran campo magnético y, cuando situamos a un sujeto en éste, lo que sucede es que los protones de sus átomos se alinean respecto a él. Cuando se envía el pulso de ondas electromagnéticas, sólo los protones que se encuentre en un estado determinado, denominado “paralelo”, podrán adquirir la energía de las ondas y posteriormente emitirlas. En el momento en que el pulso de ondas termina, los protones vuelven a su posición inicial emitiendo una señal, y es esta señal la que contiene la información que posteriormente podremos reconstruir para obtener una imagen del tejido (Álvarez et al. 2008).

Figura 61. Resonancia magnética estructural en la que se puede observar una tumoración talámica bilateral en un paciente pediátrico. Imagen obtenida de Gelabert, M., Seramito, R., Bandín, S. y Allut, A (2007).
En RM podemos obtener diferentes tipos de imágenes, entre ellas, las imágenespoteciadas en T1 o en T2. En este apartado, no vamos a entrar en los detalles específicos de cómo se obtiene un tipo u otro de imagen; no obstante, vamos a analizar para qué es útil o más apropiado cada una de ellas.
1)Las imágenes en T1 son más adecuadas para estudiar aspectos anatómicos; por tanto, será útil emplearlas cuando queramos observar patologías que cursan con cambios morfológicos, como por ejemplo tumores cerebrales (figura 64).
2)Por el contrario, las imágenes en T2 son más apropiadas utilizarlas para obtener información más de tipo fisiopatológica, como por ejemplo enferme dades neurodegenerativas (figura 62, página siguiente)
Las imágenes obtenidas en resonancia magnética suelen estar conformadas, mayoritariamente, por diferentes tonos de grises que nos permiten observar y contrastar los tejidos. Sin embargo también podemos encontramos con colores como el blanco y el negro. A continuación, vamos a ver qué valor puede tener cada uno de los diferentes colores en función del tipo de imagen.
Hasta ahora, hemos hecho referencia principalmente a la RM estructural. A partir de estas líneas, vamos a centrarnos en la RM funcional (RMf) que permite registrar la actividad cerebral in vivo en un tiempo real.

Figura 62. Resonancia magnética funcional de un paciente pediátrico con enfermedad de Aicardi-Goutieres. La imagen muestra atrofia corticosubcortical y alteración en la mielinización. Imagen obtenida de Blanco et al. (2004).

En los últimos años la RMf ha adquirido una gran importancia debido a que es una técnica que permite medir los cambios hemodinámicos en el cerebro y localizar la respuesta neurofisiológica que un sujeto da ante estímulos de diferentes modalidades como por ejemplo, los sensoriales, los motores y los cognitivos. El éxito de la RMf radica principalmente en la gran resolución tanto espacial como temporal que presenta y a su naturaleza no invasiva al no utilizar ningún tipo de radiofármaco.
La RMf se basa principalmente en el efecto BOLD (del inglés Blood Oxygen Level Dependent) (Figura 65). Este efecto depende principalmente de las propiedades magnéticas de la hemoglobina. Como es bien sabido, la hemoglobina es una proteína cuya función principal es la de transportar el oxigeno por la sangre. Esta molécula tiene unas propiedades magnéticas diferentes en función de si va ligada o no al oxígeno. En el caso de que vaya ligada al oxigeno se obtiene la oxihemoglobina y ésta tiene la particularidad de ser diamagnética, es decir, no puede ser detectada por la resonancia magnética. En el caso de que la hemoglobina no vaya ligada al oxigeno obtenemos la desoxihemoglobina y ésta tiene la propiedad de ser paramagnética, es decir, puede alterar el campo magnético local (Álvarez et al. 2008).
Cuando realizamos una determinada tarea el área o áreas de nuestro cerebro responsables de éstas se activan, lo que conlleva a un aumento del flujo cerebral en estas regiones activadas. Como consecuencia de esta activación se produce una disminución de la cantidad de desoxihemoglobina en relación a la concentración de oxihemoglobina dando como resultado un incremento en la intensidad de la señal (Avila et al. 2003).

Figura 63. Resonancia magnética funcional (figura adaptada de Purves et al., 2008).

Figura 64. RMf en la que se observa cómo la corteza prefrontal dorsolateral, el núcleo Accumbens y la unión temporo-occipital se activan principalmente en las mujeres mientras se les presentan estímulos graciosos.
Así pues, en investigación, la RMf se utiliza mientras el sujeto realiza una determinada tarea. Por ejemplo, un trabajo en el que puede observarse la aplicación de esta técnica es el realizado por Azim et al. (2004) en el que aplicaron la RMf para observar qué áreas se activaban tanto en hombres como en mujeres mientras se les presentaban estímulos graciosos (Figura 64).
No cabe duda de que la aparición de la RMf ha contribuido a un gran avance en el campo de la investigación. No obstante, esta técnica presenta algunas limitaciones, entre ellas, que pueden aparecer activadas zonas cerebrales que no están directamente implicadas en la realización de la tarea sino que se activan por otras causas que no sabemos y/o no podemos controlar, como, por ejemplo, ruidos, que el sujeto esté moviendo alguna parte del cuerpo mientras realiza la tarea, etc.
5.10.2.Tomografía por emisión de positrones
La Tomografía por Emisión de Positrones o también conocida como PET es una técnica de neuroimagen funcional que es de gran utilidad tanto para la diagnosis clínica como para estudiar el metabolismo del organismo. El objetivo de esta técnica es crear imágenes que muestren la función fisiológica y específica de algún procesomolecular, con lo cual, la PET puede utilizarse para determinar diferentes procesos vitales como, por ejemplo, el metabolismo de la glucosa, la perfusión y el flujo sanguíneo, la tasa de unión de los complejos receptor-ligando y el intercambio de oxígeno (Coronel, OF., Serna, JA., Bourlon, R., Bourlon, MT., y Gómez, MA. 2007). Una vez obtenidas las imágenes, se pueden distinguir los diferentes estados funcionales, tanto normales como patológicos, de una estructura específica.
A diferencia de la RM, en la PET se utiliza radiación ionizante, es decir, se introduce en el organismo del paciente un marcador radioactivo denominado radiofármaco o radiosonda. En función de la parte del organismo que se quiera observar, se utilizará un radiofármaco u otro, y se administrará a través de una de las tres vías posibles: venosa, ingerida o inhalada.
Los principios físicos en los que se basa esta técnica son de gran complejidad, y para poder entenderlos sería necesario tener un conocimiento profundo sobre la estructura atómica de los átomos y sobre en qué consiste el fenómeno de la radioactividad. Por este motivo, no vamos a entrar en detalles de física molecular, pero sí vamos a ver a grandes rasgos cómo se obtiene la imagen de la PET.
Una vez que se le inyecta al paciente el radiofármaco, éste se acumula en la zona del organismo que queremos observar y empieza a emitir energía en forma de rayos gamma. La máquina de la PET tiene una serie de dispositivos que son capaces de detectar este tipo de energía y, por tanto, medir qué cantidad de radiofármaco ha absorbido el organismo. A continuación, se generan las imágenes que nos permiten observar qué cambios se están produciendo o se han producido en el organismo del paciente.
Como hemos mencionado al principio del subapartado, la PET es una técnica que tiene una gran aplicación en la diagnosis clínica, en ámbitos como la neurología, la psiquiatría, la oncología, etc. A continuación, vamos a ver algunas de las aplicaciones de la PET en determinadas patologías.
PET y tumores cerebrales
El radiofármaco más utilizado en la PET cuando se quiere evaluar alteraciones neurológicas como es el caso de tumores cerebrales, es la 18 fluoro-2-desoxi-D glucosa (F-FDG1) (Mantaka et al. 2003). Este trazador es captado por las células utilizando el mismo transportador activo que utiliza la glucosa, no obstante, una vez fosforilado no puede salir hacia el exterior celular ni ser metabolizado por la vía glucolítica (Peñuelas, I. 2001).

Figura 65. A: Resonancia magnética estructural potenciada en T1. B: PET con contraste F-FGD. C: PET con contraste F-FLT. (Imagen obtenida de Chen et al., 2008)
Una de las propiedades que presentan las células tumorales es que absorben más radiosonda respecto a las células sanas, por lo tanto, en la imagen podemos observar dónde 4e encuentra localizado el tumor y qué extensión tiene (Figura 65).
En el ámbito de la oncología, la PET es muy útil para realizar el diagnóstico diferencial debido a que permite distinguir lesiones benignas de las malignas. Asimismo, con esta técnica también podemos llevar a cabo evaluaciones de seguimiento de los pacientes, valorar si el tratamiento ha sido efectivo, estatificar el grado del tumor y tomar decisiones a la hora de establecer el tratamiento oncológico adecuado (Gerson, R., Serrano, A., Villalobos, A. y Martínez, D. 2004).
PET y demencias
Cuando un paciente presenta un trastorno cognitivo atípico y se quiere diferenciar qué tipo de demencia puede presentar, la técnica de la PET es muy eficaz porque proporciona patrones de actividad bastante específicos para diferentes patologías con lo cual ayuda mucho a realizar un diagnóstico.
Como es bien sabido, existen diferentes tipos de demencias; no obstante, la demencia tipo Alzheimer es la que más predomina entre los sujetos de edades más avanzadas. Una de las características que presenta esta enfermedad es una drástica reducción del metabolismo de la glucosa en áreas cerebrales específicas. Prácticamente todos los estudios realizados con PET muestran que los pacientes afectados con esta patología presentan reducciones metabólicas en las cortezas parieto-temporal y cingulada posterior y en las áreas frontales (Figura 68). Asimismo, parece ser que el metabolismo de las áreas primarias, tanto motoras como visuales, el cerebelo, el tálamo y, los ganglios basales está relativamente preservado (Mosconi, L., Pupi, A., De Leon, M. 2008)

Figura 66. PET correspondiente a un sujeto con Alzheimer en el que se observa una marcada disminución global de la perfusión cortical, de predominio temporo-parietal bilateral y coronal posterior con relativa preservación de la corteza sensorio-motor. Los núcleos basales y estructuras infratentoriales se aprecian de perfusión conservada. Imagen obtenida de Quintana, S. (2002).
5.10.3.Tomografía axial computada
La tomografía axial computada, o TAC, es otra de las técnicas de neuroimagen que se utiliza para el diagnostico clínico, ya que permite observar el interior de nuestro organismo. Las imágenes obtenidas de la TAC están orientadas perpendicularmente al eje corporal, con lo cual, las imágenes se obtienen en un plano axial o transversal (Hernández, S. y Mitjavila, M. 2006) (figura 67, página siguente).
Cuando situamos al paciente en la máquina, un rayo X emite un haz que atraviesa el cuerpo del paciente y es captado por un detector. La imagen que se obtiene depende principalmente del grado de atenuación del rayo X, es decir, en función de la masa que atraviese el rayo (hueso, sangre, etc.) será absorbido en mayor o menor medida y, por tanto, será captado más o menos por el detector.

Figura 67. Equipo de tomografía axial computada.
| Estructura o tejido | Apariencia en la imagen de una TAC |
| Sustancia gris Sustancia blanca Hueso Calcificaciones Grasa Sangre Aire LCF | Blanco Gris Muy blanco Blanco Negro Blanco Muy negro Gris oscuro |
Teniendo en cuenta este fenómeno, cuando observemos una imagen hecha en TAC, apreciaremos que las estructuras de más densidad, como los huesos o la sangre en abundancia, presentan un color brillante, mientras que las estructuras o tejidos menos densos, como la grasa o el líquido cefalorraquídeo, aparecen en tonos oscuros.
Cuando realizamos una TAC, si queremos aumentar la definición de la imagen, podemos recurrir también a determinados radiofármacos, que nos permitirán obtener una imagen mucho más nítida del fenómeno que queremos observar.
En cuanto al uso clínico de la TAC, puede utilizarse para observar diferentes patologías, entre ellas las siguientes:
•Anormalidades cerebrales y medulares.
•Tumores cerebrales y accidentes cerebro vasculares.
•Sinusitis.
•Aneurismas de aorta.
•Infecciones torácicas.
•Enfermedades de órganos como el hígado, los riñones y los nódulos linfáticos del abdomen.
•Hemorragias.
•Atrofias.
Un aspecto muy importante que hemos de tener presente es que la TAC no debe confundirse con la típica radiografía convencional, puesto que utiliza un haz que, además de ir bien dirigido hacia la estructura que nos interesa, éste puede variar su grosor en función de la zona a evaluar. Asimismo, y como hemos visto anteriormente, la TAC puede distinguir diferentes densidades que nos permiten diferenciar distintos tejidos o estructuras. Otra característica muy importante que presenta esta técnica es que puede detectar anormalidades de hasta 1 o 2 mm de tamaño, lo que supone una gran ventaja para el diagnóstico precoz de patologías tumorales.
Al igual que la mayoría de las técnicas, la TAC también presenta ventajas y desventajas. En cuanto a las ventajas, además de la gran precisión a la hora de detectar minúsculas anomalías, es una técnica cuyo costo no es tan elevado como el de la RM, es más rápida y tiene más disponibilidad. Por lo que respecta a las limitaciones, es una técnica que únicamente genera las imágenes en los planos axial o transversal y, en el caso de utilizar radiofármacos, la dosis elevada de radiación que se les administra a los pacientes.
5.10.4.Electroencefalografía
La electroencefalografía (EEG) es una técnica que permite registrar la actividad eléctrica cerebral que subyace a diferentes procesos cognitivos, motores e incluso sensoriales.
Las ondas que obtenemos del EEG proceden principalmente de la corteza cerebral como consecuencia de la actividad de las células piramidales corticales. Los potenciales sinápticos, tanto excitatorios como inhibitorios, que se producen en estas neuronas crean un flujo de corriente entre las zonas más profundas y más superficiales dando como resultado un movimiento de cargas eléctricas y la creación de un campo eléctrico que se puede registrar en la superficie craneal.

Figura 68. Izquierda, electrodos que se adhieren al cuero cabelludo para realizar una electroencefalografía. Derecha, casco con los electrodos integrados para realizar una electroencefalografía.
Para poder registrar dicha actividad, es necesario colocar en la cabeza del sujeto una serie de electrodos que consisten en pequeños discos metálicos de unos 5 mm de diámetro, aproximadamente, que se adhieren con una pasta conductora y se fijan al cuero cabelludo con un aislante. Actualmente, para realizar EEG también se utiliza un tipo de casco que lleva incluido los electrodos (Figura 68).
Para poder registrar la actividad cerebral del cerebro, es necesario que los electrodos se dispongan en un orden determinado, y para ello existen diferentes sistemas, como el de Illinois, Montreal, Lennox, etc. Sin embargo, el más utilizado en el mundo es el conocido “sistema diez-veinte”. Según este sistema, los electrodos han de colocarse siguiendo unas pautas determinadas hasta disponerlos por toda la cabeza (Figura 69).

Figura 69. Sistema de colocación de electrodos según la versión europea.

Figura 70. Electroencefalografía (figura adaptada de Purves et al., 2008).
La actividad eléctrica que recogen los electrodos consiste en ondas cuya amplitud oscila entre los 10 mV hasta las 100 μV y cuya frecuencia se mueve entre los 0,5 y los 100 Hz, dependiendo del grado de actividad del cerebro (Figura 70). Normalmente, el tipo de ondas que se recogen son:
1)Ondas α (alpha): su frecuencia se encuentra entre los 8 y los 13 Hz. Suelen registrarse en estados en los que el sujeto se encuentra despierto, con los ojos cerrados y relajado en un ambiente libre de estímulos inesperados.
Ritmo alpha correspondiente a un sujeto sano.
2)Ondas β (beta): su frecuencia oscila entre los 14 y los 30 Hz. Suelen registrarse cuando el sujeto está en vigilia realizando alguna actividad que le suponga estar en alerta o en tensión, como por ejemplo conducir, trabajar, etc.
Ritmo beta correspondiente a un sujeto sano.
3)Ondas θ (theta): su frecuencia se encuentra entre los 4 y los 7 Hz. Suelen aparecer en estados de sueño.
Ritmo theta correspondiente a un sujeto sano.
4)Ondas δ (delta): su frecuencia se encuentra por debajo de los 3,5 Hz. Aparecen en estados de sueño profundo y en algunas patologías cerebrales.
Ritmo delta correspondiente a un sujeto sano.
En cuanto a su aplicación clínica el EEG tiene mucha utilidad en disciplinas como la neurología y la neurocirugía. De esta manera, esta técnica aporta información relevante en patologías como la epilepsia, los tumores cerebrales, enfermedades cerebrovasculares, traumatismos craneoencefálicos, cefaleas, encefalopatías inflamatorias etc.
Un aspecto importante que cabe destacar es que un EEG normal no implica necesariamente ausencia de patología cerebral, debido a que no todas las alteraciones neurológicas provocan alteraciones en el registro electroencefalográfico. Este caso lo podemos encontrar, por ejemplo, en enfermedades neurodegenerativas, en lesiones cerebrales muy pequeñas o pequeños infartos lacunares.
5.10.5.Magnetoencefalografía
La magnetoencefalografía (MEG) es una técnica no invasiva que permite registrar la actividad funcional del cerebro basada en la detección de los campos magnéticos generados por la actividad eléctrica cerebral (Figura 73). Más concretamente, permite captar los campos magnéticos generados por los potenciales postsinápticos, tanto excitatorios como inhibitorios, producidos en las dendritas de las neuronas piramidales (Maestu, F et al. 2005). Esta técnica no comporta ningún tipo de riesgo para el paciente y, a diferencia del EEG, no es necesario aplicar sobre el sujeto ningún tipo de electrodo. Al igual que muchas otras técnicas, la MEG presenta ventajas e inconvenientes. En cuanto a las ventajas, esta técnica permite medir las señales neuronales en un tiempo real; sin embargo, al ser un instrumento muy sensible, puede registrar diferentes artefactos, tanto medioambientales como los provocados por materiales ferromagnéticos, lo que constituye una de sus principales limitaciones o desventajas.
En cuanto a las aplicaciones clínicas, la MEG se utiliza para el diagnóstico o evaluación de diferentes patologías, entre ellas las siguientes:
•Epilepsia.
•Estudios vasculares.

Figura 71. Señales de magnetoencefalografía (figura adaptada de Purves et al., 2008).
•Traumatismos craneoencefálicos.
•Migrañas.
•Enfermedades neurodegenerativas, como la enfermedad de Alzheimer y la enfermedad de Parkinson.
•Trastornos psiquiátricos, como depresión o esquizofrenia.
•Tumores.
La MEG no tiene únicamente aplicaciones clínicas, sino que también se utiliza para evaluar o estudiar procesos cognitivos básicos como la memoria, el lenguaje, la percepción o las funciones ejecutivas.
5.10.6.Estimulación magnética transcraneal

Figura 72. Imagen en la que se observa cómo se estimula el lóbulo prefrontal izquierdo de un paciente.
A diferencia de la electroencefalografía y la magnetoencefalografía, la estimulación eléctrica transcraneal (EMT) no registra la actividad cerebral, sino que es una técnica no invasiva que consiste en inducir una corriente en el cerebro a través de un campo magnético con el objetivo de generar un beneficio terapéutico y/o establecer relaciones causales entre actividad cerebral y comportamiento (Figura 72).
Para inducir la corriente en el cerebro, es necesario disponer de un dispositivo, en este caso un aro, y colocarlo sobre la superficie de la cabeza del sujeto para que genere el campo magnético. A continuación, este campo magnético traspasa los tejidos de la cabeza y se convierte en energía eléctrica, es decir, la que utiliza nuestro sistema nervioso.
La EMT es una técnica que se ha utilizado como instrumento complementario a diferentes métodos utilizados en el área de las neurociencias para realizar mapeos corticales de diferentes funciones cerebrales como la memoria, el lenguaje, etc., e incluso para establecer relaciones causales entre excitabilidad cortical y comportamiento.

Figura 73. Esquema de las diferentes maneras de aplicar EMT.
La EMT puede aplicarse de diferentes maneras (Figura 73), como pulsos simples en el cual se aplica un estímulo cada tres o más segundos sobre una determina región, como un par de estímulos separados por un intervalo interestímulos variable de varios milisengudos o bien, como un tren de estímulos de frecuencia variable aplicados sobre la misma región cerebral durante varios segundos (Pascual-Leone, A., Tormos, JM. 2008)
Desde un punto de vista terapéutico la EMT se aplica a un gran número de patologías tanto neurológicas como psiquiatritas, entre las cuales se encuentran las siguientes:
•Trastornos afectivos
•Trastorno bipolar
•Trastorno obsesivo-compulsivo
•Trastorno postraumático
•Esquizofrenia y psicosis
•Dolor
•Trastornos del movimiento
•Epilepsia
•Tartamudez
•Autismo
•Trastorno de Atención
•Neurorehabilitación
Los resultados mas relevantes encontrados sobre los beneficios de Ia TMS se derivan de estudios con pacientes depresivos. En los primeros trabajos se empezo a estimular Ia corteza prefrontal dorsolateral debido a que se habfa observado a traves de pruebas funcionales que este tipo de pacientes mostraban una hipoactivacion en esta region cerebral. A dfa de hoy, esta region es Ia que se sigue estimulando y ya son varios los trabajos que han puesto de manifiesto que Ia administracion de TMS provoca resultados muy parecidos a los que se consiguen con los antidepresivos, y ademas, que esta tecnica resulta ser mas beneficiosa para los pacientes que se muestran resistentes a los farmacos.
Ademas de Ia depresion, tambien se han llevado a cabo estudios con pacientes afectos con otras enfermedades mentales tales como Ia esquizofrenia en Ia que se ha visto que frecuencias bajas de estimulacion en regiones temporoparietales favorece a Ia disminucion de Ia sintomatologfa psicotica. Asimismo, en pacientes manfacos tambien se ha observado que Ia aplicacion de frecuencias altas de estimulacion en regiones frontales, especialmente derechas, reduce Ia gravedad de esta fase. Finalmente, en pacientes con trastorno por abuso de substancias se ha observado que Ia estimulacion de regiones prefrontales favorece a Ia reduccion de los sfntomas que caracterizan el craving especialmente en pacientes dependientes a Ia cocafna y Ia nicotina.
5.10.7.Estimulación eléctrica cortical
La estimulación eléctrica cortical (EEC) es una técnica que se utiliza básicamente en el ámbito de la neurocirugía, es decir, cuando un paciente tiene que ser sometido a una intervención quirúrgica cerebral. La función principal de esta técnica es realizar un mapeo cortical y ver qué áreas cerebrales pueden quedar afectadas durante la operación.
Para llevar a cabo la EEC, es necesario disponer de un generador de corriente eléctrica, unos electrodos que puedan conducir dicha corriente y el tejido a estimular, que en este caso es la corteza cerebral.

Figura 74. Estimulación del área motora durante una intervención quirúrgica a través de una manta de electrodos.
En cuanto al generador de corriente, existen diferentes tipos. Los más seguros y utilizados son aquellos que presentan los estímulos eléctricos a una corriente constante. Respecto a los electrodos, generalmente se utilizan los fabricados con platino debido a que este material es más seguro y, además, al no ser ferromagnético, se pueden utilizar mientras se realiza otro tipo de exploración médica, como, por ejemplo, una resonancia magnética.
Existen diferentes tipologías de electrodos:
•Los strips, que están conformados por una tira en las que puede haber entre 2 y 8 contactos.
•Las mantas, que son rectangulares o cuadradas y los contactos oscilan entre los 8 y 64.
Cuando se inicia un proceso de EEC, las estimulaciones que se utilizan son de baja amplitud, y ésta se va incrementando poco a poco hasta conseguir un cambio funcional. No obstante, hay que tener en cuenta que pueden existir zonas del cerebro que no respondan a la estimulación y, por tanto, se dejarán de estimular cuando se vea que la amplitud que se está aplicando pueda ocasionar daños cerebrales. Además, después de cada estimulación es necesario dejar un periodo de unos 25 segundos aproximadamente para recuperar el estado basal.
En cuanto a las respuestas que se obtienen cuando se realiza una estimulación, suelen clasificarse en dos tipos:
1)Positivas: son aquellas que al estimular, por ejemplo, el área motora primaria o suplementaria, el resultado es un movimiento involuntario de algún músculo del organismo.
2)Negativas: cuando al estimular alguna área cortical la función que tiene ésta se ve irrumpida, como por ejemplo, dislexia, anomias, etc.
A continuación, vamos a ver algunas de las respuestas que se obtienen al estimular diferentes zonas corticales.
Respuestas que se obtienen al estimular diferentes zonas corticales.
| Área estimulada | Respuesta obtenida |
| Área motora | Movimientos o contracciones musculares |
| Área auditiva | Percepciuón de sonidos simples |
| Área visual | Percepción de destellos |
| Lóbulo temporal y estructuras límbicas | Evocació de memorias pasadas |
| Áreas lingüísticas | Dislexia, Anomias, etc. |
Para finalizar, es necesario mencionar que actualmente se están llevando a cabo ensayos clínicos en los que se utiliza la EEC en diferentes patologías, como la epilepsia o el Parkinson, para observar si implantando electrodos que estimulen eléctricamente áreas que puedan estar influyendo en dichas enfermedades pueden bloquear o estabilizar algunas disfunciones características de éstas.
1.En este capítulo nos centraremos en la presentación de la orientación científica cuantitativa aplicada a la psicobiologia. En las ciencias del comportamiento esta orientación se complementa con metodologías cualitativas; puede consultarse el texto de Riba (2007) para una excelente presentación de las mismas.
1.La F-FDG es transportada al interior celular por difusión pasiva facilitada por proteínas transportadoras, siendo después fosforilada a FDG-G-Fosfato. Ésta queda atrapada en las células porque no puede seguir la via metabólica de la glucosa. Por este motivo, cuando se realiza una PET pueden observarse qué células han absorbido el radiofármaco.