Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Condicionamiento Operante (página 2)




Enviado por elix_sr



Partes: 1, 2

Aprendizaje supersticioso: es el aprendizaje
donde alguna consecuencia casualmente reforzante o aversiva
aumenta la frecuencia de aparición de alguna
conducta.

Aprendizaje por castigo: es el aprendizaje donde
un organismo aumenta la frecuencia de aparición de las
conductas que no fueron seguidas o que no recibieron
ningún estímulo aversivo o desagradable.

Olvido: todas las conductas que no reciben o que
dejan de recibir reforzamiento tienden a disminuir su frecuencia
de aparición y a desaparecer.

El esquema del condicionamiento operante es el
siguiente:

¯

Estímulo Condicionado :
Palanca dentro de la caja.

¯

Respuesta Condicionada : Accionar
la palanca.

¯

Estímulo Incondicional :
Bolilla de alimento

¯

Respuesta Incondicional :
Comer

PROGRAMAS DE
REFORZAMIENTO:

En el estudio de los programas son
esenciales un sistema de
notación y una terminología. La
especificación sin ambigüedades de los programas es
sólo un requisito necesario en un sistema de
notación, los sistemas ideales
podrían emplearse para generar procedimientos
experimentales de interés
conductual y explicarían el análisis de la conducta bajo un programa
determinado. Hay ventajas y desventajas en todos los sistemas de
notación que se han utilizado para describir los programas
(Ferster y Skinner, 1957, Findley, 1962, Mechner, 1959,
Schoenfeld, Cumming y Hearst, 1956). Las designaciones de los
programas hechos por Ferster y Skinner proporcionan un conjunto
de términos que tienen connotaciones para todos aquellos
que están familiarizados con la literatura sobre
programas.

En un programa de
razón, una respuesta es reforzada después de la
emisión de cierto número de respuestas designado a
partir de la última respuesta reforzada o algún
otro evento especificado. El número requerido puede ser
fijo o variable, dando lugar al reforzamiento de razón
fija (RF) y al de razón variable (RV). En un programa de
intervalo, una respuesta es reforzada después de un
período designado a partir de algún evento
(comúnmente, el último reforzamiento). En el
reforzamiento de intervalo fijo (IF)el tiempo entre el
inicio del intervalo y la disponibilidad del reforzamiento es
fijo, y la siguiente respuesta después de la
terminación del período es reforzada. El
reforzamiento de intervalo variable (IV) es semejante, excepto
que los períodos designados son de duración
variable. *El evento que inicia el período puede ser el
reforzamiento, el fin de un período previo (disponibilidad
limitada), cambios en los estímulos discriminativos o una
respuesta (programas en tándem). Una característica esencial de los programas de
intervalo es que no se hacen específicas explícitas
acerca de las respuestas entre la indicación del intervalo
y la disponibilidad del reforzamiento está disponible
después de un tiempo fijo a partir de la respuesta
precedente inmediata (RDB) no constituye, estrictamente hablando,
un programa de intervalo.

La disponibilidad del reforzamiento en los programas de
razón e intervalo puede restringirse aún más
si se imponen especificaciones adicionales que establezcan
límites
a aquellos períodos en los que una respuesta puede ser
reforzada, por ejemplo, en un programa de intervalo, en vez de
reforzar la primera respuesta que ocurre después del final
del intervalo, el período de disponibilidad puede
limitarse a una duración específica. Ferster y
Skinner designan a los programas de intervalo así
calificados, como de disponibilidad limitada. Igualmente, otra
restricción sobre la disponibilidad de reforzamiento
descrita por Ferster y Skinner consiste en que el tiempo entre
una respuesta designada y la respuesta subsecuente (o series de
respuestas) debe ser menor que una duración
específica (rda) o debe exceder una duración
especificada (rdb).

Otros procedimientos
útiles de análisis de los efectos de los programas de
razón e intervalo son las combinaciones de estos
programas. En un programa tándem, la disponibilidad del
reforzamiento está determinada por una secuencia
particular ordenada de programas componentes en que, exceptuando
el último componente, la única consecuencia de la
respuesta que termina un componente es que inicia el siguiente
componente. En los programas concurrentes, cualquiera de dos
programas independientes, programados al mismo tiempo determinan
la disponibilidad del reforzamiento es determinada conjuntamente
por las interacciones en los requisitos de número y
tiempo; por ejemplo, en un programa conjuntivo de razón
fija, intervalo fijo, la disponibilidad del reforzamiento es
depende de la emisión de un número de respuestas
dado y del paso de un período mínimo desde el
último reforzamiento. En un programa entrelazado
(interlocking) de razón fija, intervalo fijo, la
disponibilidad del reforzamiento depende de la emisión de
un número de respuestas que cambia como función
del tiempo a partir del último reforzamiento.

Ferster y Skinner definen otros programas, que son
secuencias de programas simples. Los programas múltiples
combinan dos o más programas, estando cada uno de ellos
acompañado por un estímulo diferente. Los programas
encadenados son similares a los tándem en que la
disponibilidad del reforzamiento depende de una secuencia
ordenada de programas componentes; pero en los programas
encadenados los programas componentes (o el cambio en los
componentes) están correlacionados a los
estímulos.

¿CÓMO HA
UTILIZADO SKINNER A LOS ANIMALES PARA
ESTUDIAR ELREFORZAMIENTO OPERANTE?

Por lo general, los psicólogos experimentales no
han relacionado sus leyes y teorías
con casos de aprendizaje en la vida real. Sin embargo, el
profesor Skinner y sus colegas han tenido bastante éxito
con el entrenamiento de
animales. Es
probable que aún entrenadores profesionales de animales,
por medio del estudio de los procedimientos utilizados en el
condicionamiento operante, pudieran mejorar sus técnicas.
En un periodo escolar, dándole alimento a un pichón
hambriento en el momento oportuno, Skinner logro implantar en el
ave tres o cuatro respuestas bien definidas, como girar en
redondo, caminar por el piso recorriendo una trayectoria en forma
de ocho, estirar el pescuezo y golpear con una patita.

La tesis
básica de Skinner es que, ya en el organismo tiende a
futuro a hacer lo que esta haciendo en el momento del
reforzamientos, se puede, poniendo un sebo en cada etapa,
obligarlo hacer lo que se desea. Utilizando esta tesis como
base de su procedimiento, ha
enseñado a unas ratas a que usen una canica para obtener
alimento de una maquina automática, también a unos
pichones a que jueguen una especie de tenis, y a unos perros a que
hagan funcionar el pedal de un bote de basura, para
conseguir un hueso.

Skinner ha concentrado sus estudios en animales
inferiores por que su comportamiento es más simple, por
que las condiciones circundantes pueden ser mejor controladas,
por que los procesos
básicos pueden ser más palpables y se pueden
registrar durante mayores periodos de tiempo, así como las
observaciones no se complican por relaciones sociales entre los
sujetos y los psicólogos.

La caja de Skinner es una caja común y corriente,
hecha para contener una rata, una palanca y un artificio que deja
caer una bolita de alimento cada vez que la rata oprime una
palanca. Los artificios de registro
están colocados fuera de la caja, para que el
experimentador pueda ir a su casa en la noche y ver a la
mañana siguiente lo que estuvo haciendo la rata.
También hay cajas de Skinner para el estudio de palomas y
otros animales. Una rata o una paloma aprenden rápidamente
en una caja de Skinner por que en la caja hay muy pocas cosas que
pueden hacer. Skinner dice: "la indicación más
escueta del proceso es:
hacemos que cierta consecuencia sea contingente –
dependiente – de ciertas propiedades físicas de la
conducta el movimiento
hacia arriba de la cabeza- y entonces observamos la conducta del
animal para aumentar su frecuencia."

La conducta de una conducta puede ser reforzada de
manera que estirar el pescuezo se vuelva habitual. Colocamos la
paloma en la jaula de modo que el experimentador pueda ver la
cabeza del animal en una escala fijada al
otro lado de la jaula. Así, establecemos la altura en la
que normalmente se encuentra la cabeza; posteriormente escogemos
una altura que solo se ha alcanzado pocas veces. El
experimentador mantiene la vista en la escala
rápidamente abre la caja del alimento, cada vez que la
cabeza del pájaro pasa arriba del nivel establecido. Como
resultado de este procedimiento el
aprendizaje se realiza… "Observemos un cambio
inmediato con respecto a la frecuencia con que la cabeza
sobrepasa la línea. También observamos y esto es de
gran importancia teórica, que la cabeza empieza a rebasar
alturas mayores. Podemos aumentar la altura casi inmediatamente,
si damos el alimento en el momento adecuado. En uno o dos
minutos, la posición del pájaro a cambiado a tal
grado que ahora el punto mas alto de su cabeza rara vez se
encuentra a menos altura que la primera que habíamos
escogido."

Entrenando a dos palomas separadamente, Skinner realizo
una escena social en la cual hay una especie de competencia entre
dos palomas que juegan a algo parecido al tenis de mesa. Realizo
este entrenamiento
mediante reforzamientos operantes. Primero las palomas fueron
reforzadas cuando solo empujaban la pelota. Cuando esta iba a dar
al otro pichón, era reforzado el primero. También
entreno palomas para que coordinen su conducta en danzas de
conjunto, que rivalizan con la destreza de los más
hábiles bailarines humanos.

Los procedimientos del reforzamiento pueden variar de
acuerdo con los intervalos de tiempo y él numero de
respuestas entre los esfuerzos. Un programa de refuerzo es una
pauta de conductas que merecen "recompensa" basado en un
intervalo de tiempo fijo y un numero también fijo de
respuestas entre las recompensas. En un laboratorio
Skinner y Ferster, han logrado realizaciones apropiadas a cada
uno de los nueve diferentes programas de intervalos
radiofónicos. Cuando se presenta un estimulo, la paloma
ejecuta el acto apropiado ese programa especifico. Skinner cree
que lo que ha logrado hace muy plausible la idea de ampliar los
resultados del laboratorio de la vida cotidiana de la gente es
mas complicado, pero de la misma naturaleza
básica que el aprendizaje de un animal mediante el
condicionamiento operante.

En los experimentos de
condicionamiento operante, las distintas especies de organismos
estudiados no han dados resultados muy diversos. " Se han
obtenido resultados que puedan ser equiparados, tanto con
palomas, ratas, perros, monos,
niños y
más recientemente… con sujetos humanos con algún
padecimiento sicótico. A pesar de las enormes diferencias
filogeneticas, todos estos organismos han demostrado tener
extraordinaria similitud de propiedades en el proceso del
aprendizaje".

EJEMPLIFICACIÓN :

Veamos un ejemplo de Condicionamiento Operante que se da
en la vida diaria: supongamos que el señor Sánchez
va con su hijito de 3 años a comprar a la bodega. Al
niño le encantan los dulces y al verlos, le pide a su
papá que le compre uno. El señor Sánchez se
niega, y el niño empieza a llorar. Como el padre no quiere
que su hijo llore le compra un dulce. Otro día al volver a
la tienda ocurre lo mismo: el padre se niega inicialmente pero,
al llorar el niño, cede y le compra el dulce. En las
semanas siguientes seguirá sucediendo lo mismo.

¿Qué ha ocurrido?

Simplemente que el niño "aprendió" a
llorar para obtener lo que quiere, en ese caso los dulces.
¿Cómo?; por condicionamiento operante. Siguiendo el
esquema mencionado, el proceso fue el siguiente:

Estímulo Condicionado : Ver los dulces
y tener a su padre con él.

¯

Respuesta Condicionada :
Llorar.

¯

Estímulo
Incondicional :
Compra de dulce.

¯

Respuesta Incondicional :
Satisfacción al comer el dulce.

¿CÓMO FUNCIONA EL CONDICIONAMIENTO
OPERANTE DE SKINNER?

Skinner considera que la sicología es predecir y
controlar la conducta de los organismos individuales, e insiste
en que la sicología se limita al estudio de la conducta
observable; sus únicos datos son los que
se adquieren por la observación.

La sicología de Skinner es un tipo de ciencia
meramente de ingieren define el aprendizaje como un cambio en la
probabilidad
de una respuesta. En la mayoría de los casos este caso es
originado por el acondicionamiento operante.

En este sentido el acondicionamiento operante es el
proceso didáctico en él por el cual una respuesta
se hace más probable o más frecuente. En el proceso
del acondicionamiento operante el rebosamiento aumenta la
probabilidad
de repetición de ciertas respuestas.

Skinner cree que casi toda la conducta humana
es producto de un
reforzamiento operante.

Pongámonos en el lugar de un estudiante de cuarto
grado, llamada Dale Cooper, en una posible aula en el año
1975. A la primera campanada los estudiantes entran a clases, a
la segunda campanada se mantienen en silencio. Una vez realizados
los primeros ejercicios el profesor dice: "aritmética".
Dale a sido condicionado a que con esta indicación coloque
su cilindro de aritmética en su maquina de enseñanza localice el lugar donde se quedo
la ultima clase y prosiga condicionándose para seguir
contestando los problemas.
Transcurridos 20 minutos el profesor dice: "lectura" y
20minutos mas tarde dice: "ortografía". Cada palabra es él
estimulo apropiado para que Dale cambie el cilindro de su
maquina. Después viene el descanso. Al sonar una campana
con distintos sonidos salen al lugar destinado a juegos.
Aquí el equipo a sido mecanizado de manera que necesita
muy poca supervisión por parte del maestro o de
otros miembros del personal el
maestro utiliza el periodo de descanso para revisar, preparar y
lubricar las maquinas.

La sicología que serviría de base para
utilizar las maquinas de enseñanza para la educación de Dale
a sido ideada por B. F. Skinner (1904). Skinner a encontrado que
el acondicionamiento operante a resultado sumamente efectivo en
el cambio del entrenamiento de animales y tiene confianza de que
tendrá igual éxito
cuando se aplique a niños y
jóvenes. En acondicionamiento operante los maestros son
considerados arquitectos y edificadores de la conducta de los
estudiantes.

Los objetivos
didácticos se dividen en un gran numero de pasos muy
pequeños y se refuerzan uno por uno. Los operantes serie
de actos son reforzados esto es se refuerzan para que incrementen
la probabilidad de su recurrencia en el futuro. Este proceso es
de primerísima importancia que los profesores empleen
programas de rebosamiento debidamente cronometrados y
espaciados.

El profesor Skinner se opone a que los psicólogos
y los profesores usen términos tales como "fuerza de
voluntad, sensación, imagen, impulso o
instinto" que se supone que se refieren a eventos no
fiscos. La conducta es el movimiento de
un organismo o de sus partes, en un marco de referencia
suministrado por el propio organismo o por varios objetos
externos o campos de fuerza.

Un condicionamiento operante es una serie de actos que
consigue que un organismo haga algo; levante la cabeza, mueva una
placa, diga caballo. En el proceso del condicionamiento operante
hace que las respuestas cambien.

Señala que en la vida humana en varias
actividades incluyendo la educación la gente
cambia constante mente las probabilidades de respuesta de otras
personas mediante la formación de conciencias de
reforzamiento. El reforzamiento operante mejora la eficacia de la
conducta. Mediante el reforzamientos aprendemos a mantener el
equilibrio,
caminar, practicar juegos fiscos
y manejar herramientas e
instrumentos, realizamos una serie de movimientos, y la
probabilidad de que repitamos esos movimientos mejora y aumenta.
Así el rebosamiento operante mejora la eficacia de la
conducta.

Siempre que algo refuerza una forma particular de
conducta las probabilidades de que se repita tal conducta son
mayores. La misión de
los psicólogos es adquirir una mejor comprensión de
las condiciones bajo las cuales los reforzamientos operan mejor y
así abrir el camino al control cultural
por medio de la ingeniería social. A los muchos
reforzamientos naturales de la conducta, pueden observares un
ejercicio de reforzamientos artificiales. Cualquier lista de
valores es una
lista de valore condicionados. Estamos constituidos de maneras
que bajo ciertas circunstancias el alimento, el agua, el
contacto sexual, ara que cualquier conducta que los produzca es
muy problema que los repita. Otras cosas pueden adquirir estos
valores. Un
organismo puede ser reforzado por casi cualquier
situación.

¿QUÉ TEORIA PSICOLOGICA SIRVE DE
BASE A LOS PROCEDIMIENTOS DE ENSEÑANZA DE
SKINNER?

En todos sus estudios y exposiciones, el profesor
Skinner se ha adherido rigurosamente a la convicción
básica de que los psicólogos deben restringir sus
estudios a las correlaciones entre los estímulos y las
respuestas sin inmiscuirse con psicologías que "hagan
creer", basadas en eslabones constituidos por fuerzas
fisiológicas y mentales entre estímulos y
respuestas. Los partidarios de la oposición de Skinner,
consideran que el estudio de estas variables
es… "una filosofía fingida que quiere demostrar la
verdad, sin tener pruebas
suficientes"

En un sentido la sicología de Skinner, de la
conducta operante, es una ampliación de las
psicologías mecanicistas anteriores de estimulo –
respuesta, el conexionismo según Thorndike y la escuela de
conductismo
desarrollada por Watson, que trata de reducir todos los
fenómenos psicológicos a elementos físicos.
Thorndike utilizó tanto los elementos físicos como
los mentales, pero sus estudios sobre el hombre
fueron siempre mecanicistas. Watson también, aunque
mecanicista, limito sus estudios a la conducta de los organismos
biológicos. Skinner, igual que Thorndike y Watson, supone
que el hombre es
neutro y pasivo y que toda conducta puede describirse en
términos mecanicistas. En sus estudios sobre el hombre y
los animales, es constantemente mecanicista y elementista; para
él, la sicología es la "ciencia de la
conducta"

¿ CUÁL ES
EL SIGNIFICADO DE LA CIENCIA DE
LA CONDUCTA?

Skinner considera que hay un grande y determinante
porvenir para la ciencia de
la conducta. De acuerdo con sus puntos de vista, como la ciencia
de la conducta tiene como objeto demostrar las consecuencias de
las practicas culturales, hay razón para creer que la
presencia de tal ciencia será una señal esencial de
la cultura o
culturas que sobrevivirán en el futuro y que la cultura que es
probable que perdure, es aquella en la que los métodos de
la ciencia sean mas fielmente aplicados a los problemas de
la conducta humana.
Por tanto, en todos sus trabajos ha luchado constantemente por
ser científico hasta el enésimo grado. Skinner
considera a la ciencia como " más que una serie de
actitudes, es
algo que intenta encontrar un orden, uniformidad, realizaciones
legales en los sucesos de la naturaleza.
Empieza como todos comenzamos, observando pequeños
episodios, pero pronto pasa a la regla general, a la ley
científica". Así pues se ha colocado a la altura de
los representantes contemporáneos de la ciencia atomista e
inductiva, siguiendo las orientaciones anteriores de Francis
Bacon y John Stuart Mill. Solo se puede adquirir el sabor de los
trabajos de Skinner leyendo sus libros y sus
informes se
hace evidente el frecuente uso que hace de los artículos
definidos Él y La, que contrasta con el poco uso de los
artículos indefinidos Un, Uno, Una. Como otros
científicos "realistas" suponen que esta actitud hace
sus trabajos más objetivos y
que sus informes sobre
estudios resultan mas "científicos"

DEFINICIÓN "REALISTA" DE LA
CIENCIA

Skinner trabaja con la suposición básica
de que hay un orden en la naturaleza, inclusive en la conducta
humana y que la función de
la ciencia es descubrir el orden. Este es el cometido de un
científico realista, en contraste con el relativista.
Dentro del punto de vista realista de Skinner, la ciencia tiene
por misión el
descubrimiento de las leyes
preexistentes que gobiernan el mundo en el que nos movemos.
El
conocimiento de estas leyes mejora nuestra capacidad de
predicción y por tanto gobierna mejor las variables que
hacen que las cosas sucedan. Supone que esto es tan cierto en
sicología como en física o en química. Así
el hombre, por
medio del descubrimiento de las leyes y organizándolas en
sistemas queda capacitado para hacer frente en forma efectiva a
los aspectos del mundo natural.

Skinner reconoce que " ya es tiempo de insistir de que
la ciencia no progresa mediante pasos cuidadosamente estudiados
que se llaman <experimentos<
cada uno de los cuales tiene un bien definido principio y fin. La
ciencia es un proceso continuo y a menudo desordenado y
accidental". Sin embargo, Skinner no reconoce el principio
relativista de que la realidad consiste en lo que logramos hacer
con lo que nos llega y es"… definible como algo que puede, debe
o causan diferencias a algo o a alguien"…

PROPIEDADES
INTRÍNSECAS DE LOS PROGRAMAS:

Antes de intentar mostrar cómo la conducta es
mantenida por un programa determinado, necesitamos considerar un
poco más las implicaciones de la especificación de
un programa de reforzamiento de respuestas en el paso del tiempo.
De hecho, ¿qué estamos especificando cuando
designamos un programa, y cómo estas especificaciones
empiezan a controlar la conducta? La complejidad de las variables
interactuantes que controlan la ejecución de los tipos
más sencillos de programas no puede ser sobreenfatizada.
Algunas de estas relaciones entre los reforzamientos y las
respuestas en el tiempo estarán determinadas aproximada e
indirectamente. Por ejemplo, cuando decimos que la
trigésima respuesta a partir del reforzamiento previo va a
ser reforzada (RF 30), o que la respuesta que ocurre 5 minutos
después del reforzamiento previo va a ser reforzada (IF
5), se obtendrán necesariamente ciertas condiciones en
cada ciclo del programa y serán diferentes en ambos
programas. Para considerar lo más obvio, en el caso del
RF, el número de respuestas emitidas cuando el reforzador
se presente siempre será el mismo, mientras que en un IF
el número puede variar y, de hecho, variará. El
tiempo entre los reforzamientos sucesivos depende directamente de
la tasa de respuesta del sujeto en el caso del RF 30, y
está limitado en el límite inferior solamente por
el tiempo mínimo para emitir 30 respuestas, mientras que
en el IF 5, el tiempo entre los reforzamientos sucesivos tiene un
límite inferior fijo y es esencialmente independiente de
la tasa moderadamente alta de respuesta del sujeto bajo
circunstancias comunes.

El grado en que las características consistentes
y recurrentes de un programa, como la constancia en el
número de respuestas emitidas en un RF o la constancia
aproximada en el tiempo interreforzamientos en el IF, son
factores que determinan las ejecuciones en un asunto que debe
determinarse experimentalmente. Es probable que en algunos
valores paramétricos la mayoría de, (si no es que
todas), estas propiedades de un programa producirán alguna
consecuencia conductual ; pero algunas de las
características son más importantes que otras. En
algunos casos la falta de especificación exacta, como el
tiempo entre reforzamientos en el RF o el número de
respuestas por reforzamiento en el IF, pueden ser por importancia
conductual.

La relación temporal entre la respuesta que se
refuerza y la respuesta precedente inmediata es una
característica sutil pero muy importante, determinada en
forma inherente por la especificación del RF 30 o del IF
5. LA relación es diferente para los programas de
razón y de intervalo, y esta diferencia constituye una de
las principales distinciones entre dichos programas. En el RF, la
probabilidad de que la siguiente respuesta RN, sea
reforzada es independiente del tiempo entre ella y la respuesta
precedente (el tiempo entre respuestas), mientras que en el
programa de intervalo, la probabilidad de que la siguiente
respuesta sea reforzada aumenta con el tiempo transcurrido desde
la última respuesta.

CLASIFICACION
SEGÚN SKINNER:

En el condicionamiento operante y el análisis
experimental de la conducta, Skinner intenta clasificar la
relación entre el Paradigma
de…

Pavlov: la conexión se producía
entre un estímulo nuevo y una respuesta
refleja.

Thorndike: la conexión entre un
estímulo dado y una respuesta nueva.

Skinner distingue 2 tipos de respuestas (respondiente y
operante) y 2 tipos de condicionamiento (de tipo E y de tipo
R).

Skinner acentuó la importancia de la conducta
operante y su condicionamiento:

La conducta operante, con su relación singular
con el mabiente, presenta un campo de investigación importante e independiente.
Los aspectos de la conducta respondiente que se ha considerado
como datos
fundamentales en la ciencia de la conducta no pueden, como hemos
visto, extrapolarse a la conducta como un todo, y la información que aportan tampoco es
demasiado valiosa en el estudio de la conducta
operante.

APORTACIONES DEL
CONDICIONAMIENTO OPERANTE.

  • Propuso ocuparse solamente del comportamiento que se
    puede observar y cuantificar claramente.
  • Propuso ocuparse menos de lo que ocurre dentro del
    organismo que aprende.
  • Estudia el origen de las conductas.
  • Concedió la mayor importancia al ambiente en
    el cuál se encuentra el organismo que
    aprende.
  • Consideró que el proceso de aprendizaje es
    igual en los humanos que en los animales.
  • Propuso las definiciones científicas de lo que
    son la conducta y la psicología.

PROCEDIMIENTOS
EN EL CONDICIONAMIENTO OPERANTE

Los procedimientos presentados a continuación se
basan en la distinción derivada de la ley de efecto de
L. Thorndike, la cual establece "que las respuestas que generan
satisfacción tienen más posibilidades de repetirse,
lo cual no sucede con las que no la producen, que tienen mayor
probabilidad de repetirse".

Entrenamiento de Recompensa. El único aspecto
esencial de este entrenamiento, es que la recompensa sigue a la
respuesta de modo sistemático. Dentro de este método de
entrenamiento, el progreso del aprendizaje se mide por una tasa
de respuesta; es decir, el número de respuestas por unidad
de tiempo.

Entrenamiento de Evitación. En la forma usual de
experimento de evitación, el sujeto, al responder a una
señal –estímulo discriminativo–, evita
la aparición de un estímulo nocivo.

El entrenamiento de escape es un procedimiento en el que
no se emplea ninguna señal de aviso definida. Se relaciona
estrechamente con el entrenamiento de evitación y se asume
como una de sus subvariedades. En este método, la
respuesta operante termina con un estímulo
nocivo.

Entrenamiento de Omisión. En el entrenamiento de
omisión, el refuerzo positivo –más adelante
se ampliará el significado de estos conceptos– se
efectúa cuando el organismo no puede dar una respuesta
particular; es decir, si la respuesta especificada se realiza, se
omite el reforzamiento. En este aspecto, difiere del
procedimiento de extinción, en el que nunca se
efectúa el reforzamiento.

Entrenamiento con Castigo. Este procedimiento consiste
en hacer que se efectúe algún estímulo
nocivo, como un choque eléctrico o la introducción dentro de la boca de una
solución ácida moderada, al momento de efectuarse
una respuesta especificada. En el entrenamiento de castigo, el
estímulo nocivo ocurre después de la
respuesta.

REFORZADORES Y
REFORZAMIENTO:

El término reforzamiento tiene dos significados
diferentes. En un sentido empírico, el reforzamiento se
refiere a cualquiera de una amplia variedad de condiciones que
pueda introducirse en una situación de aprendizaje para
aumentar la probabilidad de que una determinada respuesta
reaparezca en la misma situación. En el ámbito
teórico, el término varía de un autor a
otro: Hull (1934) lo iguala con la reducción del impulso;
Skinner (1938) y Tolman (1932) lo manejan como estímulo;
para Thorndike (1911) es una satisfactor o un perturbador;
Guthrie (1935) lo considera como algo que altera una
situación; Sheffield (1948) y Denny y Adelman (1955) lo
ven como una causante de conducta.

En varios sentidos, los reforzadores se pueden concebir
en términos de recompensa; tanto la recompensa como el
reforzador, incrementan la posibilidad de que se repita una
respuesta previa. Pero cabe hacer una distinción entre la
categoría de los tipos de refuerzos:

Reforzador positivo: es aquel estímulo que
se añade al entorno y que trae consigo un incremento de la
respuesta precedente o que determina que en el futuro dicha
respuesta se repita –"aparece algo
agradable"–.

Reforzador negativo: es aquel estímulo que
elimina algo desagradable –o cuya remoción es
reforzante– del entorno, lo que deriva en un aumento de la
probabilidad de que la respuesta precedente ocurra nuevamente en
el futuro. El reforzador negativo le enseña a un individuo
que la ejecución de cierta acción elimina un
elemento negativo que existe en el entorno. Este tipo de refuerzo
actúa en dos tipos de aprendizaje –ya
mencionados–: el condicionamiento de evitación y el
condicionamiento de escape.

PROGRAMAS DE
REFORZAMIENTO:

En la práctica experimental, el reforzamiento
puede efectuarse en cada ensayo o
después de cada respuesta correcta o puede ocurrir con
menos frecuencia. El primer procedimiento es el de reforzamiento
parcial o intermitente, el cual se administra de acuerdo a un
programa en el cual el reforzamiento ocurre en la primera
repuesta, después de un periodo dado –programas de
intervalo– o tras un número específico de
respuestas –programas de razón–. El intervalo
puede permanecer constante entre refuerzo y refuerzo
–fijos– o cambiar al azar –variados–. El
segundo procedimiento es el de reforzamiento continuo,
desarrollado por Skinner, en el cual el reforzamiento sigue a la
primera respuesta, que se efectúa después de un
periodo específico medido desde el último
reforzamiento.

CASTIGO:

Se entiende por castigo un estímulo desagradable
o doloroso que disminuye o elimina la posibilidad de que en el
futuro se repita una conducta. Cuando se habla de la
aparición de un estímulo desagradable –v.g.,
una nalgada o una descarga eléctrica–, se hace
referencia al castigo positivo; contrariamente, cuando se hace
referencia a la eliminación
–desaparición– de un estímulo
agradable, se habla de castigo negativo –v.g., prohibirle a
un niño que salga a jugar porque obtuvo malas
calificaciones–.

Frecuentemente se utiliza con el propósito de
reducir la tasa de respuesta. En el castigo, las respuestas van
seguidas de un estímulo aversivo.

La presentación de un estímulo aversivo
dependiente y contingente a la ocurrencia de una operante, recibe
el nombre técnico de "castigo"; que puede ser administrado
de las siguientes maneras:

Una operante que nunca ha sido reforzada.

Una operante que está siendo mantenida por el
reforzamiento.

Una operante que está siendo
extinguida.

El castigo de la conducta durante el período de
mantenimiento.
En el experimento se castiga cada una de las respuestas de disco
emitidas por un pichón, mismas que han sido mantenidas
bajo un programa de reforzamiento positivo de IV. El estimulo
aversivo consiste en un choque eléctrico que se le da a un
animal a través de electrodos implantados en el pecho.
Asimismo, una gran intensidad de castigo podrá eliminar
completamente la conducta, mientras que una intensidad leve
podrá no tener ningún efecto. Cuando se suspende la
presentación del castigo, la tasa de respuesta se
incrementa avanzando a un nivel mayor que el mantenido
originalmente por el programa de reforzamiento.

Los efectos iniciales del castigo. Cuando por primera
vez se administra el castigo, el procedimiento podrá
provocar respuestas respondientes tales como correr y saltar por
todos lados; o trata de salir de la jaula o cámara. Estas
conductas se irán reduciendo mediante la
habilitación, también que la cámara sea
segura y el estímulo aversivo se presente eficazmente. Si
no se eliminan las respondientes, nuestros registros
serán afectados o contaminadas con los intentos de escape
y evitación del organismo.

Los efectos del castigo sobre otras conductas que
están siendo reforzadas. El castigo indirectamente
actúa para facilitar la ocurrencia de determinadas
conductas. No podemos esperar que una conducta se extinga por la
aplicación de un castigo o se reduzca en otras
situaciones. Lo que realmente ocurre opuestamente; pues se
facilita la aparición de la conducta cuando se deja de
castigar.

El castigo de la conducta mantenida por varios programas
de reforzamiento y durante la extinción. Los efectos del
castigo dependen también en gran medida, del programa de
reforzamiento positivo que está manteniendo la respuesta
castigada.

El castigo como estímulo discriminativo. El
castigo no siempre necesita producir una reducción en la
tasa de respuestas. Supongamos que solo se castiga la respuesta
en aquellas ocasiones en que también se le refuerza, y que
no se le castiga cuando no se le refuerza. Dentro de esta
situación, el castigo se convertirá en un
estímulo discriminativo. Como consecuencia, la tasa de
respuesta será alta en presencia del castigo.

CUADRO RESUMEN

Principio

Característica

Efectos sobre la Conducta

Reforzamiento

Presentación o retirada de un
acontecimiento después de una respuesta.

Aumenta la frecuencia de la respuesta.

Castigo

Presentación o retirada de un
acontecimiento después de una respuesta.

Disminuye la frecuencia de la
respuesta.

Extinción

Cese de la presentación de un
acontecimiento reforzante después de una
respuesta.

Disminuye la frecuencia de la respuesta
anteriormente reforzada.

Control, estimular y entrenamiento en discriminación.

Reforzamiento de la respuesta en presencia de un
estímulo (E0) pero no en presencia de
otro (E1).

Aumenta la frecuencia de la respuesta en presencia
de (E0) y disminuye en presencia de
(E1).

 

 

 

 

 

 

 

 

 

 

 

TRIPLE RELACIÓN DE CONTINGENCIA

Esta relación de contingencia hace referencia a
la secuencia de acontecimientos que ocurren frente a un
comportamiento aprendido:

Por una parte hay un evento antecedente, que se asume
como aquellas características precedentes a una
respuesta.

Triple esquema de respuesta: son las respuestas
cognitivas –¿Qué se piensa del
evento?–, respuestas emocionales–afectivas
–¿Qué se siente con respecto al
evento?– y las respuestas motoras
–¿Cuáles acciones
desencadena el evento?–.
Finalmente aparece un conjunto de circunstancias consecuentes en
las que se dan los reforzamientos, los castigos y donde se
arraiga o elimina la respuesta.

PARALELO ENTRE
EL CONDICIONAMIENTO CLÁSICO Y EL OPERANTE:

La distinción principal entre el condicionamiento
clásico y el operante se hace sobre bases operacionales.
Los dos hacen referencias a procedimientos de entrenamiento, para
los cuales la aparición del estímulo incondicionado
queda determinada por la respuesta del sujeto.

Similitudes Centrales

  • El fenómeno de la extinción, entendido
    como la disminución de la fuerza de repuesta causada por
    el no–reforzamiento o como el decaimiento de una
    respuesta condicionada, es común a los dos tipos de
    condicionamiento.
  • Como se ha observado en lo estudiado hasta ahora, una
    respuesta que se ha extinguido, recupera su fuerza con el
    descanso.
  • En ambos tipos de condicionamiento se presenta una
    característica de discriminación de los estímulos,
    tanto si el sujeto es reforzado para que responda a un
    estímulo, como si se le condiciona para que produzca una
    respuesta condicionada.

Diferencias Relevantes

  • El condicionamiento clásico es una forma de
    aprendizaje estímulo–estímulo
    –preparación de respuestas–, mientras que el
    operante es un aprendizaje estímulo–respuesta
    –se fija la respuesta–.
  • Retomando las leyes del condicionamiento
    clásico, se evidencia un principio de continuidad,
    mientras que en el condicionamiento operante se implica
    además una ley de efecto –o de concreción
    de una respuesta–.
  • Una diferencia altamente relevante es el tipo de
    respuesta. En el condicionamiento clásico la respuesta
    incondicionada o condicionada es siempre la misma, mientras que
    en el condicionamiento operante, aunque existe un cierto margen
    de predictibilidad, las repuestas suelen ser
    distintas.

REFORZAMIENTO
Y FUERZA DE RESPUESTA:

La persistencia de la conducta en el tiempo, alterada e
intensificada por el reforzamiento, implica que una alta
frecuencia de reforzamiento tendrá efectos acumulados y
fortalecerá la conducta en mayor grado que una baja
frecuencia de reforzamiento. La función "moldeadora" del
reforzamiento, su efecto al cambiar ciertas propiedades de la
conducta correlacionadas con el reforzamiento, en mayor grado que
los efectos "cuantitativos" de un reforzador sobre la conducta.
Aquí se consideran las pruebas
empíricas que relacionan la fuerza generalizada de la
respuesta con las propiedades cuantitativas del reforzador. Se
toma en cuenta, sobre todo, la relación entre la
frecuencia de reforzamiento y la tasa de respuesta.

La noción de que el reforzamiento crea una
"reserva" de respuestas fue un concepto
integrativo importante del trabajo inicial de Skinner. En los
veinte años subsecuentes casi no hubo ninguna
investigación acerca de las relaciones cuantitativas
generales entre la tasa de respuesta y el reforzamiento; por
ejemplo, en la obra Schedules of Reinforcement ("Programas de
reforzamiento") se hace poco hincapié en las relaciones
funcionales entre la tasa y los parámetros de los
programas intermitentes. En años recientes, se ha
desarrollado nuevamente un interés
activo por el tópico, pero sólo una pequeña
porción del trabajo contemporáneo sobre la fuerza
de respuesta.

Múltiples experimentos han demostrado que la tasa
de respuesta se relaciona directamente con la fuerza de
reforzamiento en los programas de intervalo; de hecho, se
encuentra una relación profesional. Aún así,
en otros experimentos se observa claramente esta relación.
Como Herrnstein observa, esta insensibilidad de la tasa de
respuesta a la frecuencia de reforzamiento disminuye
probablemente nuestro interés en el concepto de
fuerza de respuesta. Por lo general, parece que la tasa de
respuesta no es muy sensible a la frecuencia de reforzamiento en
situaciones que abarcan un solo programa con una sola llave de
respuesta y la frecuencia de reforzamiento más a menudo en
situaciones que comprenden en programas establecidos
concurrentemente, ciertos programas en serie y programas
múltiples. Experimentos recientes la mayoría de
ellos que incluyen al responder en programas concurrentes sobre
llaves de respuestas presentes simultáneamente,
señalan que, bajo ciertas condiciones, es posible
diseñar situaciones en donde la frecuencia de
reforzamiento sea factor determinante en la respuesta del sujeto.
Estos resultados pueden considerarse, en parte, como una
confirmación y ampliación de la conclusión
de Anger de que la frecuencia relativa de reforzamiento de los
diferentes TERs. Las dependencias simples de tasa respecto a la
frecuencia de reforzamiento se obtienen más a menudo en
situaciones en que la tasa relativa de respuesta bajó dos
o más condiciones, puede relacionarse con la frecuencia
relativa de reforzamiento bajo esas condiciones.

La relación entre la tasa de respuesta y la
frecuencia de reforzamiento constituye un excelente ejemplo del
modo en que diferentes aspectos del reforzamiento intermitente
determinan conjuntamente una ejecución. De acuerdo con
Herrnstein, las relaciones ordenadas entre las tasas relativas de
respuesta y las frecuencias de reforzamiento en programas
concurrentes IV IV, dependen, en realidad, de las relaciones
separadas entre la respuesta y la frecuencia de reforzamiento en
las dos llaves de respuesta. Su análisis implica que la
frecuencia de reforzamiento debe operar para controlar la tasa en
situación con una sola llave de respuesta. Sin embargo, en
las situaciones con una sola llave de respuesta, la tasa de
respuesta en un IV no se relaciona a menudo con la frecuencia de
reforzamiento en forma directa, quizá debido a que el
efecto selectivo del reforzamiento de TERs particulares se torna
abrumadoramente dominante. Los efectos de reforzamiento parecen
interactuar con (y ocultar), los efectos de la privación
sobre la tasa de respuesta. Bajo ciertas condiciones, la tasa de
respuesta se relaciona legalmente con el grado de
privación, aún cuando no se obtiene una
relación ordenada entre la tasa de respuesta y la
privación en muchos experimentos que implican
reforzamiento intermitente. La privación es más
importante durante las etapas iniciales del condicionamiento
cuando aún no se desarrolla una fuerte conducta
condicionada. Una historia prolongada de
reforzamiento intermitente atenúa los efectos de la
privación, de tal modo que se torna menos importante en el
mantenimiento
de la conducta por el programa.

La relación entre la tasa de respuesta y la
magnitud de reforzamiento es aún más oscura que sus
relaciones con la frecuencia de reforzamiento o con el nivel de
privación. Los cambios en la magnitud de reforzamiento
pueden o no cambiar la tasa de respuesta. Hay indicaciones de que
el tipo de situación en que arrojan relaciones sensibles
entre la tasa y la frecuencia de reforzamiento también
muestran relaciones ordenadas entre la tasa y magnitud de
reforzamiento. Además, cambios en la magnitud del
reforzador tienen un efecto en situaciones en que la tasa de
respuesta es elevada. Cuando ya se ha condicionado a un animal,
reforzador de pequeña magnitud, presentado con bastante
frecuencia, puede sostener una enorme cantidad de conducta;
cantidades mayores del reforzador pueden no tener un efecto
proporcionalmente mayor. Esta falta de correlación con la
tasa ha conducido a soslayar la magnitud de reforzamiento como un
factor en la respuesta controlada por programas y ha favorecido
la tendencia errónea a considerar al reforzamiento como un
efecto constante con magnitudes por debajo de algún
valor de
umbral, no teniendo carácter
de reforzadores y siendo igualmente efectivas como reforzadores
todas las magnitudes por arriba de ese valor.

Se puede obtener una relación directa entre la
magnitud de un reforzador y el producto de
respuesta en una situación en la que la respuesta no se
mantiene en forma regular. En un experimento no publicado,
llevado a cabo por el autor en colaboración con B.F.
Skinner, se reforzaron respuestas en el mismo valor de
parámetro de RF en presencia de dos estímulos
discriminativos diferentes, cada uno de los cuales se
correlacionaba con una distinta duración de acceso al
reforzador. Con valores de RF de hasta 300, hubo poca diferencia
en la tasa promedio de respuesta bajo las dos condiciones, pero
en el RF de 600 la tasa en la condición correlacionada con
la duración de diez segundos de reforzador, fue mucho
mayor que la tasa en presencia del estímulo correlacionado
con la duración de cinco centímetros de
reforzador.

PROGRAMAS DE
REFORZAMIENTO

Programas Simples de Reforzamiento
Positivo.

Son en los cuales, no es necesario reforzar las
ocurrencias de una respuesta para poder
incrementar o mantener su tasa.

Programas de Reforzamiento
Intermitente.

Cuando el medio solo refuerza alguna de las respuestas
emitidas por un organismo.

Los programas son la fuerza principal del control
conductual y por tanto su estudio constituye una parte muy
importante dentro del estudio de la conducta.

Programas Simples de Reforzamiento.

  • RAZÓN. Establece que deberá
    emitirse un determinado número de respuestas antes que
    una emisión reforzada.
  • Razón Variable (RV). El número
    de respuestas requerido para el reforzamiento varia de un
    reforzamiento a otro de una manera irregular, pero siempre
    manteniendo una característica repetitiva, seguidas de
    un número que indica el valor promedio de las
    razones.
  • Razón Fija (RF). Requiere
    consistentemente del mismo número de respuestas por cada
    reforzamiento.
  • INTERVALO. Establece que deberá pasar
    un determinado tiempo antes que una respuesta sea
    reforzada.
  • Intervalo Variable (IV). Donde varia la
    cantidad de tiempo que deberá pasar antes de que una
    respuesta sea reforzada.
  • Intervalo Fijo (IF). Es aquel que mantiene
    constante el tiempo establecido para el
    reforzamiento.

Ejecuciones Características.

  • Adquisición. Ocurre cuando inicialmente
    se comienza a reforzar las respuestas del animal en base a un
    determinado programa.
  • Mantenimiento. Mantenimiento de la tasa,
    reforzador.

Efecto de los Programas.

  • Razón Variable (RV). Proporcionan tasas
    de respuesta muy altas y casi constantes, algunas veces
    aproximándose a los límites
    físicas del organismo.
  • Intervalo Variable (IV). También
    proporcionan tasas de respuesta casi constante, pero las tasas
    comúnmente tienen valores inferiores a aquellas
    producidas por los programas de RV.

Cámaras Experimentales
Acopladas.

Al utilizar las cámaras es posible mantener
constantes el tiempo y la frecuencia del reforzamiento, y
comparar directamente los efectos de los programas de
reforzamiento de RV y de IV.

Factores que influencian la tasa de respuesta en los
programas RV e IV.

Reforzamiento diferencial de tiempo entre respuestas
(TER). Es la cantidad de tiempo que pasa entre dos respuestas,
cada emisión dentro de una secuencia termina un tiempo
entre respuestas, medida a partir de la ocurrencia de la
respuesta anterior.

TER largos. Tasas bajas de respuesta.

TER cortos. Tasas altas de respuesta.

La tasa de respuesta está influenciada por el
reforzamiento diferencial de los TERs.

Los RV. Tasas más elevadas porque refuerzan los
TER cortos.

Los IV. Tasas más bajas porque refuerzan los TER
bajos.

Factores que influencian la estabilidad de la
respuesta.

La propiedad de
los programas IV y RV para mantener tasas de respuestas estables,
dependerá de su naturaleza variable; una tasa de respuesta
se mantendrá estable un tanto que no se le exija al
organismo estar demasiado tiempo sin reforzamiento y en tanto que
no exista un elemento discriminable del programa que
invariablemente anteceda la ocurrencia o la no ocurrencia del
reforzamiento.

Programa de reforzamiento
Múltiple.

Consiste de dos o más programas independientes,
los cuales se presentan al organismo en forma sucesiva, cada uno
de ellos en presencia de un estímulo
característico. Los programas múltiples son
programas combinados, en los que se agrega un estímulo
discriminativo característico.

Ejemplo: Un pichón con disco iluminado con
diferentes colores (roja RF)
(verde RV) (azul Extinción).

Cuando los programas individuales se usan en forma
combinada, muestran las mismas características que cuando
son aplicadas individualmente. Pero también las respuestas
de un organismo en un determinado momento y bajo determinadas
condiciones, están determinadas parcialmente por la
ejecución y por las consecuencias que esa ejecución
ha tenido en el pasado y bajo otras condiciones.

Ejemplo: La conducta de un hombre durante la
noche estará determinada parcialmente por lo que
ocurrió en el día, por lo cual, la ejecución
de un determinado programa será ligeramente diferente,
cuando se trate de un programa múltiple, no cuando se
trate de un programa individual.

Hay dos procedimientos para el estudio de las
interacciones existentes entre dos programas
compuestos:

Se pueden estudiar la diferencia entre la
ejecución de un determinado programa cuando se presenta
solo o como un componente de un programa
múltiple.

Se puede estudiar la diferencia en las ejecuciones de un
programa que se emplea como componentes en dos o más
programas múltiples diferentes.

Programa de reforzamiento Compuesto.

Es aquel que refuerza una sola respuesta de acuerdo a
los requisitos de dos o más programas operando al mismo
tiempo. La ocurrencia de una respuesta podrá ser reforzada
cuando se hayan cubierto los requisitos de cualquiera de esos
programas.

Programas Conjuntivos. Es en el cual se deben cumplir
los requisitos de ambos (o todos) programas para que una
respuesta sea reforzada.

Diagramas de programas de reforzamiento.

RDB = reforzamiento diferencial de tasas bajas de
respuesta.

RDA = reforzamiento diferencial de tasas altas de
respuesta.

Programa de reforzamiento Concurrente.

Comprende el reforzamiento de dos o más
respuestas de acuerdo a dos o más programas de
reforzamiento operando al mismo tiempo.

Ejemplo: Uno de los programas reforzará al
organismo cuando éste emita una respuesta sobre la llave
izquierda, mientras que el otro programa reforzará al
organismo cuando emita una respuesta sobre la llave
derecha.

La programación concurrente está
presente en todas partes. Aún cuando solamente una
respuesta sea reforzada, existirá programación concurrente en el sentido de
que toda la conducta restante está siendo extinguida. El
término concurrente se reserva para aquellos casos en que
se dispone un programa explícito adicional para una
segunda respuesta.

Puede pasar que ocurra un encadenamiento de la conducta
(cuando en este caso el pichón, la cual se mantiene por el
reforzamiento que se da después de que ha ocurrido el
último picotazo sobre la segunda llave, lo cual ocasiona
que el ave frecuentemente pica sobre la primera llave y
posteriormente va a picar sobre la segunda llave para obtener
reforzamiento.

Con lo cual a menudo se agrega un requisito a los
programas concurrentes, que es el exigir que en los casos en que
el ave cambie de una respuesta a otra, deberá pasar un
determinado tiempo antes de que una respuesta sea reforzada. Con
esto se ayuda a garantizar que la conducta de cambiar de llave
nunca será reforzada, para obtener la independencia
de las dos respuestas.

Programación Concurrente de Cadenas de
Respuestas.

Consiste en sustituir el reforzamiento primario que se
utiliza en los programas concurrentes IV, por el uso de
reforzamiento condicionado.

CONTROL
AVERSIVO

Son aquellos estímulos cuya eliminación
incrementa la tasa de respuestas (aversivos).

Cuando la eliminación de un estímulo
aversivo mantiene o incrementa una tasa de respuesta, el
estímulo recibe el nombre de reforzador
negativo.

Escape. La respuesta da término a un
estímulo aversivo después de que se ha iniciado la
presentación del estímulo; el organismo no puede
evitar la presentación del estímulo
aversivo.

La Adquisición de la respuesta de Escape.
Es cuando por primera vez se le presenta al organismo un
estímulo aversivo, éste le evocará algunas
respondientes, tales como saltar o correr alrededor de la
cámara.

Mantenimiento de la respuesta de Escape. La tasa
de respuestas mantenida por el procedimiento de escape, es una
función de la intensidad del estímulo aversivo, de
la misma manera que la tasa de respuestas mantenida con alimento,
es una función del grado de privación.

Extinción de la respuesta de
Escape: Se presenta el estímulo aversivo sin
que las ocurrencias de la respuesta sean reforzadas con la
terminación del estímulo aversivo. Este
procedimiento da como resultado una lenta reducción en la
frecuencia de la respuesta, lo que por lo general es
errática.

El estímulo aversivo no se vuelve a presentar,
además de suspender el reforzamiento de la respuesta
también elimina uno de los estímulos
discriminativos (el estímulo aversivo) que en un principio
estuvo asociado con el reforzamiento.

Evitación. Una respuesta evita o pospone el
comienzo de un estímulo aversivo.

Factores que mantienen la respuesta.

Extinción de la Conducta de
Evitación
. La evitación normalmente se
extinguirá si se presenta el estímulo
incondicionado (el choque) a pesar de que el animal responda
durante la presentación del estímulo condicionado.
O también si el estímulo incondicionado no se
vuelve a presentar más.

Condicionamiento de Evitación
Temporal.

Evitación y Emoción. A menudo se
dice que evitamos un estímulo aversivo por miedo, no nos
gusta o nos molesta y aunque estos tipos de comentarios
satisfacen las necesidades de uso común realmente no
describe las condiciones que controlan nuestra conducta. Lo que
realmente describen estas afirmaciones, no son los reforzadores
negativos que mantienen nuestra conducta de evitación,
sino las conductas respondientes, principalmente de tipo
emocional, las cuales son evocadas concurrentemente por los
estímulos aversivos condicionados basados en el
estímulo que estamos evitando. Podrá ser que las
emociones
ocurran en conexión con la conducta de evitación,
pero eso no significa que sean sus causantes
básicos.

Castigo.

LA
OPERACIÓN CONJUNTA DEL REFORZMIENTO DIFERENCIAL Y LA
FUERZA DE RESPUESTA:

La tesis sostiene que la mayor parte del responder
controlado por programas es resultado de la operación
conjunta del reforzamiento diferencial de TERs y de los efectos
generalizados del reforzamiento por fortalecer la respuesta. Los
programas de reforzamiento refuerzan selectivamente diferentes
TERs. Una magnitud y frecuencia determinadas de reforzamiento
tienen una relación cuantitativa con la tasa de respuesta.
Las diferentes fuerzas de respuesta originadas por el
reforzamiento darán como resultado diferentes
distribuciones de TERs, y de este modo interactuarán con
el reforzamiento selectivo de TERs del programa. Aun cuando se ha
avanzado considerablemente en la identificación de los
efectos de reforzamiento en los TERs y en la tasa promedio de
respuesta por separado todavía no está claro
cómo estos factores se interrelacionan incluso en los
programas simples.

Desafortunadamente, ha habido pocos experimentos
referidos a las interacciones entre el reforzamiento selectivo de
diferentes TERs y las distribuciones de TERs, determinada por una
frecuencia en particular de reforzamiento. Generalmente los
experimentos dedicados al análisis de los TERs no buscan
complicaciones adicionales cambiando deliberadamente le
frecuencia de reforzamiento, y cuando ésta cambia, el
efecto no es grande. Por lo contrario los experimentos sobre la
fuerza de respuesta se hacen generalmente en aquellas situaciones
en que se hacen poco hincapié en el análisis en
términos de los TERs, Simplemente, no se sabe cómo
es que las diferencias de tasa de respuesta promedio, que son
resultado de diferentes tasas de reforzamiento, cambian la forma
de las distribuciones de los TERs. Es necesario tener información adicional para integrar los
efectos que tiene el reforzamiento de fortalecer la
emisión de respuestas con sus efectos de moldear la
conducta y, actualmente, las conclusiones a que se ha llegado en
los experimentos que se ocupan de uno u otro de estos efectos del
reforzamiento, son a menudo conflictivas. Podemos dar como
ejemplos algunos experimentos que hacen hincapié en la
dependencia de la tasa de respuestas de uno u otro de estos
aspectos alternativos del reforzamiento. Reynolds ha demostrado
que la proporcionalidad entre la frecuencia relativa de
reforzamiento y la tasa relativa de respuesta puede aplicarse a
programas múltiples que consten de componentes IV y RF.
Cuando la frecuencia de reforzamiento de cualquier componente se
hizo variar mientras se mantenía constante el
parámetro de reforzamiento del otro componente, las tasas
relativas de respuesta de ambos componentes cambiaron de tal
manera que fueron proporcionales a la frecuencia relativa de
reforzamiento. En este experimento, el efecto de la frecuencia de
reforzamiento disimuló efectivamente cualquier tendencia
de estos programas a generar diferentes tasas promedio de
respuestas a través del reforzamiento diferencial de
TERs.

En contraposición con el resultado de Reynolds,
Ferster y Skinner (1957) y Clark (1959) encontraron que programas
diferentes producían distintas tasas de respuesta incluso
cuando se hacía que la frecuencia promedio de
reforzamiento fuera idéntica, empleando un procedimiento
de experimento acoplado. Ferster y Skinner establecieron
ejecuciones igualadas en parejas de aves. Con IV,
antes de cambiar a RV el programa de un miembro de la pareja. En
cuanto al otro miembro de la pareja, el IV se cambió de
tal manera que la
administración de comida al ave que estaba en RV
programada la disponibilidad limitada. Aunque en base a su
informe resulta
difícil decir exactamente cómo cambió la
frecuencia de reforzamiento, ésta fue la misma para las
dos aves. No
obstante, las tasas de respuestas del ave RV fueron más
altas que las del ave IV acoplada. Este experimento demuestra que
una contingencia de reforzamiento de razón puede
contrarrestar los efectos de la frecuencia de reforzamiento. El
solo cambio de la frecuencia de reforzamiento no puede explicar
el mayor incremento de tasa que tuvo el ave que se hizo cambiar
de IV a RV, pues el ave que estaba en el IV acoplado fue
reforzada con la misma técnica.

CONTROL DE
EVENTOS
AUTÓNOMOS:

Puede lograrse un control voluntario de los
procesos
fisiológicos que hasta ahora se consideraban involuntarias
y automáticos, si se emplea el reforzamiento de modo
similar a como se utiliza para adquirir el control sobre el acto
consumatorio de beber. Existen numerosos informes acerca de la
adquisición de un control notable sobre funciones
corporales que normalmente se consideran reflejas o
involuntarias. Así se informa que los faquires
hindúes son capaces de acelerar o desacelerar su ritmo
cardíaco, de evitar el sangrado de zonas
específicas del cuerpo cuando se pasan un alfiler o un
cuchillo a través del tejido, y de controlar su respiración o incluso su ritmo
metabólico, de tal manera que pueden ser enterrados vivos
durante largos períodos (Years – Brown, 1930).
Algunos de estos poderes notables, como el control voluntario de
las actividades gastrointestinales, han sido documentadas por
Behanan (1937.

Si podemos detectar confiablemente estos eventos
autónomos y aparearles una señal externa y un
reforzamiento, tenemos las condiciones necesarias para lograr un
control operante. Con la necesidad de enviar información
desde los cohetes, se han creado técnicas
de miniaturización y técnicas telemétricas
para los experimentos fisiológicos y psicológicos.
Es posible implantar quirúrgicamente aparatos sensibles
minúsculos, o tragarlos o simplemente llevarlos consigo
(Mackay, 1961). Por ejemplo, los micrófonos pueden
detectar el ritmo cardíaco; los termistores pueden
detectar la temperatura
corporal total o la temperatura
local que manifiesta el flujo sanguíneo local; los
medidores de tensión pueden detectar contracciones
musculares suaves, etc. Cuando estos aparatos sensibles detectan
una respuesta deseada, puede hacerse que activen una señal
fácilmente discriminable que quizá ayude a la
persona o al
animal a discriminar la presencia de esa acción. Y si hay
un reforzamiento que sigue al acto, se puede motivar al animal a
controlarla. Si el condicionamiento operante no fuera posible con
tales respuestas, por lo menos podrían estudiarse muchos
casos de condicionamiento clásico (en el que tal vez no
sea necesario controlar la respuesta o incluso su ocurrencia). En
los trabajos de varios investigadores soviéticos se
proporcionan múltiples ejemplos de tales tipos de
condicionamiento. Además, Shearn (1962)ha demostrado que
el ritmo cardíaco puede ser disminuido o acelerado por
sujetos humanos que son reforzados por llevar a cabo un cambio de
tasa adecuado. Pérez – Cruet (1962) ha inducido
extrasístoles por medio de condicionamiento operante. No
sólo pueden estudiarse respuestas autónomas, sino
también movimientos operantes estándar pueden
condicionarse satisfactoriamente sacudidas del pulgar tan ligeras
que no son detectables sin la ayuda de un electromiógrafo.
En realidad, cuando la actividad eléctrica se oye a
través de un altavoz y se muestra en un
osciloscopio,
los sujetos pronto aprenden a lograr un control tan sorprendente
sobre sus músculos que pueden tocar redobles de tambor y
todo tipo de ritmos con contracciones musculares, de otro modo no
serían detectables. Después de este aprendizaje,
algunos sujetos retienen este delicado control muscular, incluso
sin el sonido que
proporciona la detección electrónica.

DISCRIMINACION

Control de estímulos de la Conducta
Operante.

Después de que las respuestas que integran una
operante ha sido reforzada en presencia de un determinado
estímulo durante varias veces, este estímulo
adquiere control sobre la operante.

Estímulo Discriminativo. Es aquel en cuya
presencia una determinada porción de conducta es altamente
probable; debido a que anteriormente esa conducta fue reforzada
en presencia de ese estímulo, no por ello la
provocan.

Generalización. Un organismo o su conducta
generalizan a todos aquellos estímulos en cuya presencia
la tasa de respuesta se incremente después de que la
respuesta ha sido reforzada en presencia de algunos de esos
estímulos.

Direcciones de la
Generalización.

La generalización ocurrirá ante los
estímulos que estén compuestos de los mismos
parámetros físicos y que solo diferían en el
valor de los parámetros.

Se espera que la generalización ocurra ante
estímulos que poseen aspectos perceptibles en común
con el estímulo que originalmente estableció la
ocasión de reforzamiento.

Generalización de Respuesta.

El reforzamiento de una respuesta no solo da como
resultado un incremento en la frecuencia de las respuestas que
integran a esa operante, sino que también producen un
incremento en la frecuencia de aquellas otras respuestas
parecidas.

Discriminación y
Generalización.

Se dice que un organismo discrimina entre dos
estímulos cuando se comporta de manera diferente en
presencia de cada uno de ellos.

El gradiente de generalización revela la
discriminación, siempre que un organismo responda con una
tasa diferente en presencia de cada uno de los
estímulos.

Formación de una
discriminación.

La discriminación entre dos estímulos se
hará cada vez más pronunciada si se añade el
reforzamiento diferencial. Cuando se refuerza una
ejecución en presencia de un estímulo
dejándola sin reforzamiento en presencia de un segundo
estímulo, se incrementa la tasa de respuesta reforzada, en
cambio la otra se reduce, y se estudia a través del
tiempo.

Determinantes Heredables de la Atención.

Los organismos nacen con diversas disposiciones a
atender a los aspectos particulares del medio. Un organismo
atenderá selectivamente solo algunos de los
estímulos que se encuentren a su alrededor, entre los
cuales es capaz de discriminar.

Determinantes Ambientales de la Atención.

La experiencia previa también puede ser la causa
de que un organismo atienda a un solo estímulo de entre un
conjunto de ellos o esas propiedades, aún cuando todos
ellos tengan la misma asociación consistente con el
reforzamiento de las respuestas.

Si se trata de introducir nuevos estímulos, por
lo general será ignorada por el organismo, a menos que se
cambien las condiciones de reforzamiento.

Estímulos Supraordenados.

Son estímulos en cuya presencia una determinada
propiedad y no
otra, ha establecido en el pasado la ocasión de
reforzamiento de una respuesta.

Transferencia del Control de
Estímulos.

La atención puede ser transferida de un conjunto
de estímulos a otro conjunto diferente, mediante el
procedimiento de presentación simultánea de ambos
estímulos que originalmente controlan la
respuesta.

Precondicionamiento Sensorial.

Existen algunos experimentos que indican que la
transferencia de control algunas veces ocurre sin el
reforzamiento explícito.

RESUMIENDO

El término de condicionamiento operante se debe a
Skinner, y en el principio es equivalente al de aprendizaje
instrumental propugnado por Thorndike. El término se
refiere a un proceso en el que la frecuencia de suceso de la
unidad de la conducta (respuesta) se modifica como efecto de las
consecuencias que lleva aparejadas esa conducta. Además,
el condicionamiento operante invierte la situación
respecto al condicionamiento operante invierte la
situación respecto al condicionamiento clásico, que
pasa a ser R – E. Es el refuerzo experimentado como
consecuente al comportamiento lo que ocasiona

 

 

 

Graciela Saldaña Rylenko

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter