Agregar a favoritos      Ayuda      Português      Ingles     

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN

Enviado por gonzalez1010



 

Indice
1. ¿Qué es un diseño de investigación?
2. ¿Qué es un experimento?
3. ¿Cómo se logra el control y la validez interna?
4. Preexperimentos
5. ¿Qué es la validez externa?
6. ¿Qué tipo de estudio son los experimentos?

1. ¿Qué es un diseño de investigación?

Una vez definido el tipo de estudio a realizar y establecer las hipótesis de investigación, el investigador debe concebir la manera práctica y concreta de responder a las preguntas de investigación. Esto implica seleccionar o desarrollar un diseño de investigación y aplicarlo al contexto particular de su estudio. Diseño se refiere al plan o estrategia concebida para responder a las preguntas de investigación. El diseño señala al investigador lo que debe hacer para alcanzar sus objetivos de estudio, contestar las interrogantes que se ha planteado y analizar la certeza de las hipótesis formuladas en un contexto en particular.
Si el diseño está concebido, el producto final de un estudio tendrá mayores posibilidades de ser válido. No es lo mismo seleccionar un tipo de diseño que otro; cada uno tiene sus características propias. La precisión de la información obtenida puede variar en función del diseño o estrategia elegida.

¿De qué tipos de diseños disponemos para investigar el comportamnento humano?
Los autores de este libro no consideran que un tipo de investigación sea mejor que otro (experimental versus no experimental). "Los dos tipos de investigación son relevantes y necesarios, tienen un valor propio y ambos deben llevarse a cabo". La elección sobre qué clase de investigación y diseño específico debemos seleccionar, depende de los objetivos trazados, las preguntas planteadas, el tipo de estudio a realizar (exploratorio, descriptivo, correlacional o explicativo) y las hipótesis formuladas.

2. ¿Qué es un experimento?

Experimento, tiene dos acepciones, una general y una particular. La regla general se refiere a "tomar una acción" y después observar las consecuencias. Se requiere la manipulación intencional de una acción para analizar sus posible efectos y la aceptación particular (sentido científico). "Un estudio de investigación en el que se manipulan deliberadamente una o más variables independientes (supuestas efectos), dentro de una situación de control para el investigador".

¿Cuál es el primer requsito de un experimento puro?
El primer requisito es la manipulación intencional de una o más variables independientes. La variable independiente es considerada como supuesta causa en una relación entre variables; es la condición antecedente, y al efecto provocado por dicha causa se le denomina variable dependiente (consecuente).
El investigador no puede incluir en su estudio a dos o más variables independientes.
Un experimento se lleva a cabo para analizar si una o más variables independientes afectan a una o más variables dependientes y por qué lo hacen. En un auténtico experimento, la variable independiente resulta de interés para el investigador por ser la variable que se hipotetiza, que será una de las causas que producen el efecto supuesto. Para obtener respuesta de esta relación causal supuesta, el investigador manipula la variable independiente y observa si la dependiente varía o no. Manipular es hacer variar o dar distintos valores a la variable independiente.
La variable dependiente se mide
La variable dependiente no se manipula, sino que se mide para ver el efecto de que la manipulación de la variable independiente tienes de ella.

Grados de manipulación de la variable independiente
La manipulación o variación de una variable independiente puede realizarse en dos o más grados. El nivel mínimo de manipulación es dos: presencia-ausencia de la variable independiente. Cada nivel o grado de manipulación implica un grupo en el experimento.

Presencia-ausencia
Implica un grupo a la presencia de la variable independiente y otro no. Luego los dos grupos son comparados para ver si el grupo que fue expuesto a la variable independiente difiere del grupo que no fue expuesto. Al primer grupo se le conoce como "grupo experimental" y al segundo se le denomina "grupo de control".
A la presencia de la variable independiente se le llama "tratamiento experimental" o "estímulo experimental".
En general, en un experimento puede afirmarse lo siguiente: si en ambos grupos todo fue "igual" menos la exposición a la variable independiente, es muy razonable pensar que las diferencias entre los grupos se deban a la presencia-ausencia de la variable independiente.

Más de dos grados
Se puede hacer variar o manipular la variable independiente en cantidades o grados.
Manipular la variable independiente en varios niveles tiene la ventaja de que no sólo se puede determinar si la presencia de la variable independiente o tratamiento experimental tiene un efecto, sino también si distintos niveles de la variable independiente se producen diferentes efectos. Es decir, si la magnitud del efecto (Y) depende de la intensidad del estímulo (X1, X2, X3, etcétera).
Debe haber al menos dos niveles de variación y ambos tendrán que diferir entre sí. Cuantos más niveles mayor información, pero el experimento se va complicando: cada nivel adicional implica un grupo más.

Modalidades de manipulación en lugar de grados
La variación es provocada por categorías distintas de la variable independiente que no implican en sí cantidades.
En ocasiones, la manipulación de la variable independiente conlleva una combinación de cantidades y modalidades de ésta.
Finalmente, es necesario insistir que cada nivel o modalidad implica, al menos, un grupo. Si tiene tres niveles (grados) o modalidades, se tendrán tres grupos como mínimo.

¿Cómo se define la manera en que se manipularán las variables independientes?
Al manipular una variable independiente es necesario especificar qué se va a entender por esa variable en el experimento. Es decir, trasladar el concepto teórico a un estímulo experimental en una serie de operaciones y actividades concretas a realizar.

Guía para sortear dificultades
Para definir cómo se va a manipular una variable es necesario:

  1. Consultar experimentos antecedentes para ver si en éstos resultó la forma de manipular la variable. Es imprescindible analizar si la manipulación de esos experimentos pueden aplicarse al contexto específico del nuestro cómo pueden ser extrapoladas a nuestra situación experimental.

    Si la presencia de la variable independiente en el o los grupos experimentales es débil probablemente no se encontrarán efectos, pero no porque no pueda haberlos.

  2. Evaluar la manipulación antes de que conduzca el experimento. Hay varas preguntas para evaluar su manipulación : ¿las variables experimentales representan la variable conceptual que se tiene en mente?, ¿los deferentes niveles de variación de la variable independiente harán que los sujetos se comporten diferente? Si la manipulación es errónea puede pasar que: 1. el experimento no sirva para nada; 2. vivamos en el error; y 3. tengamos resultados que no nos interesan.
  3. Incluir verificaciones para la manipulación. Cuando se utilizan seres humanos hay varias formas de verificar si realmente funcionó la manipulación. La primera es entrevistar a los sujetos. Una segunda forma es incluir mediciones relativas a la manipulación durante el experimento.

¿Cuál es el segundo requisito de un experimento "puro"?
El segundo requisito es medir el efecto que la variable independiente tiene en la variable dependiente. Esto es igualmente importante y como en la variable dependiente se observa el efecto, la medición debe ser válida y confiable. Si no podemos asegurar que se midió adecuadamente, los resultados no servirán.
En la planeación de un experimento se debe precisar cómo se van a manipular las variables independientes y cómo a medir las dependientes.

¿Cuántas variables independientes y dependientes deben incluirse en un experimento?
No hay reglas para ello; depende de cómo haya sido planteado el problema de investigación y las limitaciones que haya. Claro está que, conforme se aumenta el número de variables independientes, aumentan las manipulaciones que deben hacerse y el número de grupos requeridos para el experimento. Y entraría en juego el segundo factor mencionado (limitantes).
Por otra parte, podría decidir en cada caso (con una, dos, tres o más variables independientes) medir más de una variable dependiente para ver el efecto de las independientes en distintas variables. Al aumentar las variables dependientes, no tienen que aumentarse grupos, porque estas variables no se manipulan. Lo que aumenta es el tamaño de la medición (cuestionarios con más preguntas, mayor número de observaciones, entrevistas más largas, etcétera) porque hay más variables que medir.

¿Cuál es el tercer requisito de un experimento "puro"?
El tercer requisito que todo experimento "verdadero" debe cumplir es el control o validez interna de la situación experimental. El término "control" tiene diversas connotaciones dentro de la experimentación. Sin embargo, su acepción más común es que, si en el experimento se observa que una o más variables independientes hacen variar a las dependientes, la variación de estas últimas se deba a la manipulación y no a otros factores o causas; si se observa que una o más independientes no tienen efecto sobre las dependientes, se pueda estar seguro de ello. En términos coloquiales, "control" significa saber qué está ocurriendo realmente con la relación entre las variables independientes y las dependientes.
Cuando hay control podemos conocer la relación causal. En la estrategia de la investigación experimental, "el investigador no manipula una variable sólo para comprobar lo que le ocurre con al otra, sino que al efectuar un experimento es necesario realizar una observación controlada".
Lograr "control" en un experimento es controlar la influencia de otras variables extrañas en las variables dependientes, para que así podamos saber realmente si las variables independientes tienen o no efecto en la dependientes.

Fuentes de validación interna
Existen diversos factores o fuentes que pueden hacer que nos confundamos y no sepamos si la presencia de una variable independiente surte o no un verdadero efecto. Se trata de explicaciones rivales a la explicación de que las variables independientes afectan a las dependientes. A estas explicaciones se les conoce como fuentes de invalidación interna porque atentan contra la validez interna de un experimento. La validez interna se relaciona con la calidad del experimento y se logra cuando hay control, cuando los grupos difieren entre sí solamente en la exposición a la variable independiente (presencia-ausencia o en grados), cuando las mediciones de la variable dependiente son confiables y válidas, y cuando el análisis es el adecuado para el tipo de datos que estamos manejando. El control en un experimento se alcanza eliminando esas explicaciones rivales o fuentes de invalidación interna.

  1. Historia. Acontecimientos que ocurren durante el desarrollo del experimento, afectan a al variable dependiente y pueden confundir los resultados experimentales.
  2. Maduración. Procesos internos de los participantes que operan como consecuencia del tiempo y que afectan los resultados del experimento (cansancio, hambre, aburrición, aumento en la edad y cuestiones similares).
  3. Inestabilidad. Poca o nula confiabilidad de las mediciones, fluctuaciones en las personas seleccionadas o componentes del experimento, o inestabilidad autónoma de mediciones repetidas aparentemente "equivalentes".
  4. Administración de pruebas. Se refiere al efecto que puede tener la aplicación de una prueba sobre las puntuaciones de pruebas subsecuentes.
  5. Instrumentación. Esta fuente hace referencia a cambios en los instrumentos de medición o en os observadores participantes que pueden producir variaciones en los resultados que se obtengan.
  6. Regresión estadística. Provocado por una tendencia que los sujetos seleccionados sobre la base de puntuaciones extremas, muestran a regresar, en pruebas posteriores, aun promedio en la variable en la que fueron seleccionados.
  7. Selección. Elegir los sujetos de tal manera que los grupos no sean equiparables. Es decir, si no se escogen los sujetos de los grupos asegurándose su equivalencia, la selección puede resultar tendenciosa.
  8. Mortalidad experimental. Se refiere a diferencias en la pérdida de participantes entre los grupos que se comparan.
  9. Interacción entre selección y maduración. Se trata de un efecto de maduración que no es igual en los grupos del experimento, debida a algún factor de selección. La selección da origen a diferentes tasas de maduración a cambio autónomo entre grupos.
  10. Otras interacciones.

El experimentador como fuente de invalidación interna
Otra razón que puede atentar contra la interpretación correcta y certera de los resultados de un experimento es la interacción entre los sujetos y el experimentador, la cual puede ocurrir de diferentes formas. Los sujetos pueden entrar al experimento con ciertas actitudes, expectativas y prejuicios que pueden alterar su comportamiento durante el estudio. Recordemos que las personas que intervienen en un experimento, de una manera u otra, tienen motivos precisamente para esa participación y su papel será activo en muchas ocasiones.
El mismo experimentador puede afectar los resultados de la investigación, pues no es un observador pasivo que no interactúa, sino un observador activo que puede influir en los resultados del estudio. Además tiene una serie de motivos que lo llevan a realizar su experimento y desea probar su hipótesis. Ello puede conducir a que afecte el comportamiento de los sujetos en dirección de su hipótesis.
Tampoco los sujetos que participan en el experimento deben conocer las hipótesis y condiciones experimentales; incluso frecuentemente es necesario distraerlos de los verdaderos propósitos del experimento, aunque al finalizar éste se les debe dar una explicación completa del experimento.

3. ¿Cómo se logra el control y la validez interna?

El control en un experimento logra la validez interna, y el control se alcanza mediante: 1. varios grupos de comparación (dos como mínimo); y 2. equivalencia de los grupos en todo, excepto la manipulación de las variables independientes.

Varios grupos de comparación
Es necesario que en un experimento se tengan por lo menos dos grupos que comparar. En primer término, porque si nada más se tiene un grupo no se puede saber si influyeron las fuentes de invalidación interna o no.
No lo podemos saber porque no hay medición del nivel de prejuicio al inicio del experimento; es decir, no existe punto de comparación.
Con un solo grupo no podemos estar seguros de que los resultados se deben al estímulo experimental o a otras razones. Los "experimentos" con un grupo se basan en sospechas o en lo que "aparentemente es", pero faltan fundamentos. Se corre el riesgo de seleccionar sujetos atípicos y el riesgo de que intervengan la historia, la maduración, administración de prueba, instrumentaciones y demás fuentes de invalidación interna, sin que el experimentador se dé cuenta.

Por ello, el investigador debe tener al menos un punto de comparación: dos grupos, uno al que se le administra el estímulo y otro al que no (el grupo de control). Al hablar de manipulación, a veces se requiere tener varios grupos, cuando se desea averiguar el efecto de distintos niveles de la variable independiente.

Equivalencia de los grupos
Pero para tener control no basta tener dos o más grupos, sino que deben ser similares en todo, menos la manipulación de la variable independiente. El control implica que todo permanece constante menos la manipulación. Si entre los grupos que conforman el experimento todo es similar o equivalente, excepto la manipulación de la independiente, las diferencias entre los grupos pueden atribuirse a ella y no a otros factores (entre los cuales están las fuentes de invalidación interna).
Lo mismo debe hacerse en la experimentación de la conducta humana, debemos tener varios grupos de comparación.
Los grupos deben ser: inicialmente equivalentes y equivalentes durante todo el desarrollo del experimento, menos por lo que respecta a la variable independiente. Asimismo, los instrumentos de medición deben ser iguales y aplicados de la misma manera.

Equivalencia inicial
Implica que los grupos son similares entre sí al momento de iniciarse el experimento. Si inicialmente no son equiparables, digamos en cuanto a motivación o conocimientos previos, las diferencias entre los grupos no podrán ser atribuidas con certeza a la manipulación de la variable independiente. Queda la duda de si se deben a dicha manipulación o a que los grupos no eran inicialmente equivalentes.
La equivalencia inicial no se refiere a equivalencias entre individuos, porque las personas tenemos por naturales diferencias individuales; sino a la equivalencia entre grupos. Si tenemos en un grupo hay personas muy inteligentes también en el otro grupo. Y así con todas las variables que puedan afectar a la variable dependiente o dependientes, además de la variable independiente. El promedio de inteligencia, motivación, conocimientos previos, interés por los contenidos y demás variables, debe ser el mismo en los dos grupos. Si bien no exactamente el mismo, no debe haber una diferencia significativa en esas variables entre los grupos.

Equivalencia durante el experimento
Durante el experimento los grupos deben mantenerse similares en los aspectos concernientes al tratamiento experimental excepto excepto en la manipulación de la variable independiente: mismas instrucciones (salvo variaciones parte de esa manipulación), personas con las que tratan los sujetos, maneras de recibirlos, lugares con características semejantes (iguales objetos en las habitaciones o cuartos, clima, ventilación, sonido ambiental, etc.), misma duración del experimento, mismo momento y en fin todo lo que sea parte del experimento. Cuanto mayor sea la equivalencia durante su desarrollo, mayor control y posibilidad de que, si observamos o no efectos, estemos seguros de que verdaderamente los hubo o no.
Cuando trabajamos simultáneamente con varios grupos, es difícil que las personas que dan las instrucciones y vigilan el desarrollo de los grupos sean las mismas.

¿Cómo se logra la equivalencia inicial?: asignación al azar
Existe un método para alcanzar esta equivalencia: la asignación aleatoria o al azar de los sujetos a los grupos del experimento. La asignación al azar nos asegura probabilísticamente que dos o más grupos son equivalentes entre sí. Es una técnica de control que tiene como propósito dar al investigador la seguridad de que variables extrañas, conocida o desconocidas, no afectarán sistemáticamente los resultados del estudio. Esta técnica diseñada por Sir Ronald A. Fisher, funciona para hacer equivalentes a grupos.
La asignación al azar puede llevarse a cabo mediante pedazos de papel. Se escribe el nombre de cada sujeto (o algún tipo de clave que lo identifique) en uno de los pedazos de papel, luego se juntan todos los pedazos en algún recipiente, se revuelven y se van sacando sin ver para formar los grupos.
Cuando se tienen dos grupos, la aleatorización puede llevarse a cabo utilizando una moneda no cargada. Se lista a los sujetos y se designa qué lado de la moneda va a significar el grupo 1 y qué lado el grupo 2.
Otra es utilizar una tabla de números aleatorios que incluye números del 0 al 9, y su secuencia es totalmente al azar (no hay orden, no patrón o secuencia). Primero, se selecciona al azar una página de la tabla preguntándole un número del 1 al X número de páginas que contenga la tabla. En la página seleccionada se elige un punto cualquiera (bien numerando columnas o renglones y eligiendo al azar una columna o renglón, o bien cerrando los ojos y colocando la punta de un lápiz sobre algún punto de la página). Posteriormente, se lee una secuencia de dígitos en cualquier dirección (vertical, horizontal o diagonalmente). Una vez que se obtuvo dicha secuencia, se enumeran los nombres de los sujetos por orden alfabético o de acuerdo con un ordenamiento al azar, colocando cada nombre junto a un dígito, nones a un grupo y los pares al otro.
La asignación al azar produce control, pues las variables que deben ser controladas (variables extrañas y fuentes de invalidación interna) son distribuidas de la misma manera en los grupos del experimento. Así la influencia de otras variables que no sean la independencia se mantiene constante porque éstas no pueden ejercer ninguna influencia diferencial en la variable dependiente o variables dependientes.
La asignación aleatoria funciona mejor cuanto mayor sea el número de sujetos con que se cuenta para el experimento, es decir, cuanto mayor sea el tamaño de los grupos. Los autores recomiendan que para cada grupo se tengan, por lo menos, 15 personas.

Otra técnica para lograr la equivalencia inicial: el emparejamiento
Otro método para intentar hacer inicialmente equivalentes los grupos es el emparejamiento o técnica de apareo (matching). El proceso consiste en igualar a los grupos en relación con alguna variable específica, que puede influir de modo decisivo en la variable dependiente o las variables dependientes.
El primer paso es elegir a esa variable de acuerdo con algún criterio teórico. La variable seleccionada debe estar muy relacionada con las variables dependientes. Debe pensarse cuál es la variable cuya influencia sobre los resultados del experimento resulta más necesario controlar y buscar el apareo de los grupos en esa variable.
El segundo caso consiste en obtener una medición de la variable elegida para emparejar a los grupos. Esta medición puede existir o puede efectuarse entes del experimento.
El tercer paso consiste en ordenar a los sujetos en la variable sobre la cual se va a efectuar el emparejamiento (de las puntuaciones más altas a las más bajas).
El cuarto paso es formar parejas según la variable de apareamiento e ir asignado a cada integrante de cada pareja a los grupos del experimento, buscando un balance entre dichos grupos.
También podría intentarse emparejar los grupos en dos variables, pero ambas deben estar relacionadas, porque de lo contrario puede resultar muy difícil el emparejamiento.
La asignación al azar es la técnica ideal para lograr la equivalencia inicial
La asignación al azar es un mejor método para hacer equivalentes los grupos (más preciso y confiable). El emparejamiento no la sustituye. En cambio, la aleatorización garantiza que otras variables no van a afectar a las dependientes ni confundir al experimentador. La bondad de la asignación al azar de los sujetos a los grupos de un diseño experimental es que el procedimiento garantiza absolutamente que en promedio los sujetos no diferirán en ninguna característica más de lo que pudiera esperarse por pura casualidad, antes de que participen en los tratamientos experimentales.

4. Preexperimentos

Los preexperimentos se llaman así, porque su grado de control es mínimo
1. Estudio de caso con una sola medición
Consiste en administrar un estímulo o tratamiento a un grupo y después aplicar una medición en una o más variables para observar cuál es el nivel del grupo en estas variables.
Este diseño no cumple con los requisitos de un "verdadero" experimento. No hay manipulación de la variable independiente. El diseño adolece de los requisitos para lograr el control experimental: tener varios grupos de comparación. No se puede establecer causalidad con certeza. No se controlan las fuentes de invalidación interna.
2. Diseño de preprueba-postprueba con un solo grupo
A un grupo se le aplica una prueba previa al estímulo o tratamiento experimental: después se le administra el tratamiento y finalmente se le aplica una prueba posterior al tratamiento.
El diseño ofrece una ventaja sobre el interior, hay un punto de referencia inicial para ver qué nivel tenía el grupo en la variables dependientes antes del estímulo. Es decir, hay un seguimiento del grupo. Sin embargo, el diseño no resulta conveniente para fines científicos: no hay manipulación ni grupo de comparación y además varias fuentes de invalidación interna pueden actuar.
Por otro lado, se corre el riesgo de elegir a un grupo atípico o que en el momento del experimento no se encuentre en su estado normal. Tampoco se puede establecer con certeza la causalidad.
Los dos diseños preexperimentales no son adecuados para el establecimiento de relaciones entre la variable independiente y la variable dependiente o dependientes. Son diseño que se muestran vulnerables en cuanto a la posibilidad de control y validez interna. Deben usarse sólo como ensayos de otros experimentos con mayor control.
Los diseños preexperimentales pueden servir como estudios exploratorios, pero sus resultados deben observarse con precaución. De ellos no pueden sacarse conclusiones seguras de investigación. Abren el camino, pero de ellos deben derivarse estudios más profundos.

Experimentos "verdaderos"
Los experimentos "verdaderos" son aquellos que reúnen los dos requisitos para lograr el control y la validez interna: 1) grupos de comparación (manipulación de la variable independiente o de varias independientes); y 2) equivalencia de los grupos. Pueden abracar yuna o más variables independientes y una o más dependientes. Pueden utilizar prepruebas y postpruebas para analizar la evolución de los grupos antes y después del tratamiento experimental. La postprueba es necesaria para determinar los efectos de las condiciones experimentales.
1. Diseño con postpruebas únicamente y grupo de control
Este diseño incluye dos grupos, uno recibe el tratamiento experimental y el otro no(grupo de control). Es decir, la manipulación de la variable independiente alcanza sólo dos niveles: presencia y ausencia. Los sujetos son asignados a los grupos de manera aleatoria. Después de que concluye el periodo experimental, a ambos grupos se les administra una medición sobre la variable dependiente en estudio.
En este diseño, la única diferencia entre los grupos debe ser la presencia-ausencia de la variable independiente.
La prueba estadística que suele utilizarse en este diseño para comparar a los grupos es la prueba "t" para grupos correlacionados, al nivel de medición por intervalos.
El diseño con postprueba únicamente y grupo de control puede extenderse para incluir más de dos grupos, se usan dos o más tratamientos experimentales, además del grupo de control.
Si se carece de grupo de control, el diseño puede llamarse "diseño con grupos aleatorizados y postprueba únicamente".
En el diseño con postprueba únicamente y grupo de control, así como en sus posibles variaciones y extensiones, se logra controlar todas las fuentes de invalidación interna.
2. Diseño con preprueba-postprueba y grupo de control
Este diseño incorpora la administración de prepreubas a los grupos que componen el experimento. Los sujetos son asignados al azar a los grupos, después a éstos se les administra simultáneamente la preprueba, un grupo recibe el tratamiento experimental y otro no (es el grupo de control); y finalmente se les administra, también simultáneamente una postprueba.
La adición de la preprueba ofrece dos ventajas: primera, las puntuaciones de las prepruebas pueden usarse para fines de control en el experimento, al compararse las prepruebas de los grupos se puede evaluar qué tan adecuada fue la aleatorización. La segunda ventaja reside en que se puede analizar el puntaje ganancia de cada grupo (la diferencia entre la preprueba y la postprueba).
El diseño controla todas las fuentes de invalidación interna por las mismas razones que se argumentaron en el diseño anterior (diseño con postprueba únicamente y grupo de control). Lo que influye en un grupo deberá influir de la misma manera en el otro, para mantener la equivalencia de los grupos.

5. ¿Qué es la validez externa?

Un experimento debe buscar ante todo validez interna; es decir, confianza en los resultados. Lo primero es eliminar las fuentes que atentan contra dicha validez. Es muy deseable que el experimento tenga validez externa. La validez externa se refiere a qué tan generalizables son los resultados de un experimento a situaciones no experimentales y a otros sujetos o poblaciones.

Fuentes de invalidación externa
Factores que pueden amenazar la validez externa, los más comunes son los siguientes:
1. Efecto reactivo o de interacción de las pruebas
Se presenta cuando la preprueba aumenta o disminuye la sensibilidad o la calidad de la reacción de los sujetos a la variable experimental, haciendo que los resultados obtenidos para una población con preprueba no pueden generalizarse a quienes forma parte de esa población pero sin preprueba.
2. Efecto de interacción entre los errores de selección y el tratamiento experimental
Este factor se refiere a que se elijan personas con una o varias características que hagan que le tratamiento experimental produzca un efecto, que no se daría si las personas no tuvieran esas características.
3. Efectos reactivos de los tratamientos experimentales
La "artificialidad" de las condiciones puede hacer el contexto experimental resulte atípico respecto a la manera en que se aplica regularmente el tratamiento.
4. Interferencia de tratamientos múltiples
Si los tratamientos no son de efecto reversible; es decir, si no se pueden borrar sus efectos, las conclusiones solamente podrán hacerse extensivas a las personas que experimentaron la misma secuencia de tratamientos.
5. Imposibilidad de replicar los tratamientos
Cuando los tratamientos son tan complejos que no pueden replicarse en situaciones no experimentales, es difícil, es difícil generalizar a éstas.
Para lograr una mayor validez externa, es conveniente tener grupos lo más perecidos posible a la mayoría de las personas a quienes se desea generalizar y repetir el experimento varias veces con diferentes grupos (hasta donde el presupuesto y los costos de tiempo lo permitan). También, tratar de que el contexto experimental sea lo más similar posible al contexto que se pretende generalizar.

¿Cuáles pueden ser los contextos de experimentos?
Se han distinguido dos contextos en donde puede tomar lugar un diseño experimental: laboratorio y campo, Experimento de laboratorio: "un estudio de investigación en el que la variancia" (efecto) "de todas o casi todas las variables independientes influyentes posibles no pertinentes al problema inmediato de la investigación se mantiene reducida" (reducido el efecto) "en un mínimo". Experimento de campo: "un estudio de investigación en una situación realista en la que una o más variables independientes son manipuladas por el experimentador en condiciones tan cuidadosamente controladas como lo permite la situación". La diferencia esencial entre ambos contextos es la "realidad" con que los experimentos se llevan a cabo, el grado en que el ambiente es natural para los sujetos.
Los experimentos de laboratorio generalmente logran un control más riguroso que los experimentos de campo, pero antes estos últimos suelen tener mayor validez externa. Ambos tipos de experimento son deseables.
Algunos han acusado a los experimentos de laboratorio de "artificialidad", de tener poca validez externa, pero los objetivos primarios de un experimento verdadero son descubrir relaciones (efectos) en condiciones "puras" y no contaminadas, probar predicciones de teorías y refinar teorías e hipótesis.

6. ¿Qué tipo de estudio son los experimentos?

Debido a que analizan las relaciones entre una o varias variables independientes y una o varias dependientes y los efectos causales de las primeras sobre las segundas.

Emparejamiento En Lugar De Asignación Al Azar
Este método es menos preciso que la asignación al azar. Sin embargo, si se lleva a cabo con rigor, se tienen grupos grandes y se posee información que indica que los grupos no son diferentes, se puede lograr un alto grado de equivalencia inicial entre grupos.

¿Qué otros experimentos existen?: Cuasiexperimentos
Los diseños cuasiexperimentales también manipulan deliberadamente al menos una variable independiente, solamente que difieren de los experimentos "verdaderos" en el gardo de seguridad o confiabilidad que pueda tenerse sobre la equivalencia inicial de los grupos. En los diseños cuasiexperimentales los sujetos no son asignados al azar a los grupos ni emparejados, sino que dichos grupos ya estaban formados antes del experimento, son grupos intactos.

Problemas de los diseños cuasiexperimentales
La falta de aleatorización introduce posibles problemas de validez interna y externa.
Debido a los problemas potenciales de validez interna, en estos diseños el investigador debe intentar establecer la semejanza entre los grupos, esto requiere considerar las características o variables que puedan estar relacionadas con las variables estudiadas.
Los cuasiexperiemntos difieren de los experimentos "verdaderos" en la equivalencia inicial de los grupos (los primeros trabajan con grupos intactos y los segundos utilizan un método para hacer equivalentes a los grupos). Sin embargo, esto quiere decir que sea imposible tener un caso de cuasiexperimento donde los grupos sean equiparables en las variables relevantes para el estudio.

Tipos de diseños cuasiexperimentales
Con excepción de la diferencia que acabamos de mencionar, los cuasiexperimentos son muy parecidos a los experimentos "verdaderos". Por lo tanto, podemos decir que hay casi tantos diseños cuasiexperiemntales como experimentales "verdaderos". Sólo que no hay asignación al azar o emparejamiento. Pero por lo demás son iguales, la interpretación es similar, las comparaciones son las mismas y los análisis estadísticos iguales (salvo que a veces se consideran las pruebas para datos no correlacionados).
1. Diseño con postprueba únicamente y grupos intactos
Este primer diseño utiliza dos grupos: uno recibe el tratamiento experimental y el otro no. Los grupos son comparados en la postprueba para analizar si el tratamiento experimental tuvo un efecto sobre la variable dependiente.
Si los grupos no son equiparables entre sí, las diferencias en las postpruebas de ambos grupos pueden ser atribuidas a la variable independiente pero también a otras razones diferentes, y lo peor es que el investigador puede no darse cuenta de ello.
Por ello es importante que los grupos sean inicialmente comparables, y que durante el experimento no ocurra algo que los haga diferentes, con excepción de la presencia-ausencia del tratamiento experimental.
Recuérdese que los grupos son intactos, no se crean, ya se habían constituido por motivos diferentes al cuasiexperimento.
2. Diseño de prepuebas-postprueba y grupos intactos (uno de ellos de control)
Este diseño es similar al que incluye postprueba únicamente y grupos intactos, solamente que a los grupos se les administra una preprueba. La cual puede servir para verificar la equivalencia inicial de los grupos (si son equiparables no debe haber diferencias significativas entre las prepruebas de los grupos).
Las posibles comparaciones entre las mediciones de la variable dependiente y las interpretaciones son las mismas que en el diseño experimental de preprueba-postprueba con grupo de control solamente que en este segundo diseño cuasiexperimental, los grupos son intactos y en la interpretación de resultados debemos tomarlo en cuenta.

Pasos De Un Experimento O Cuasiexperimento
Los principales pasos en el desarrollo de un experimento o cuasiexperimento, son:
Paso 1:
Decidir cuántas variables independientes y dependientes deberán ser incluidas en el experimento o cuasiexperimento.
Paso 2:
Elegir los niveles de manipulación de las variables independientes y traducirlos en tratamientos experimentales
Paso 3:
Desarrollar el instrumento o instrumentos para medir la(s) variable(s) dependiente(s).
Paso 4:
Seleccionar una muestra de personas para el experimento (idealmente representativa de la población).
Paso 5:
Reclutar a los sujetos del experimento o cuasiexperimento. Esto implica tener contacto con ellos, darles las explicaciones necesarias e indicarles el lugar, día, hora y persona con quien deben presentarse. Siempre es conveniente darles el máximo de facilidades para que acudan al experimento.
Paso 6:
Seleccionar el diseño experimental o cuasiexperimental apropiado para muestras, hipótesis, objetivos y preguntas de investigación.
Paso 7:
Planear cómo vamos a manejar a los sujetos que participen en el experimento. Es decir, elaborar una ruta crítica de qué van a hacer los sujetos desde que llegan al lugar del experimento hasta que se retiran (paso a paso).
Paso 8:
En el caso de experimentos "verdaderos", dividirlos al azar o emparejarlos; y en el caso de cuasiexperimentos analizar cuidadosamente las propiedades de los grupos intactos.
Paso 9:
Aplicar las prepruebas (cuando las haya), los tratamientos respectivos (cuando no se trate de grupos de control) y las postpruebas.
Resulta conveniente tomar nota del desarrollo del experimento. Ello nos ayudará a analizar la posible influencia de variables extrañas que generan diferencias entre los grupos y será un material invaluable para la interpretación de los resultados.

 

 

 

 

Autor:


Maribel Gonzalez Campos


Comentarios


Trabajos relacionados

Ver mas trabajos de Educacion

 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.


Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Iniciar sesión

Ingrese el e-mail y contraseña con el que está registrado en Monografias.com

   
 

Regístrese gratis

¿Olvidó su contraseña?

Ayuda