Monografias.com > Tecnología
Descargar Imprimir Comentar Ver trabajos relacionados

Informe de investigación científica en el paradigma cuantitativo




Enviado por Angel Avilez



  1. Lineamientos que Justifica la
    Investigación Científica y de Enfoque
    Cuantitativo
  2. ¿Qué es
    Paradigma?
  3. ¿Qué era el Círculo de
    Viena?
  4. Algunos Representantes del Círculo de
    Viena
  5. ¿Cuál es la importancia  o
     beneficio en el campo de la investigación
    cuantitativa, con el hecho de trabajar con
    muestras?
  6. ¿Cuándo se debe hacer uso de una
    o más muestras, en un estudio
    cuantitativo?
  7. ¿Qué significa Confiabilidad en
    el ámbito cuantitativo?
  8. En
    qué consiste una Prueba Piloto
  9. ¿Cuándo se dice que un
    instrumento es confiable?
  10. Referencias

Lineamientos que
Justifica la
Investigación Científica y de Enfoque
Cuantitativo

La investigación científica surge por la
necesidad que tiene el hombre de comprender y conocer el mundo
que le rodea. Es por ello que empieza a crear métodos que
lo lleven a conseguir ese objetivo. De esta manera se originan
las primeras hipótesis y con ellas las
investigaciones.

En función de lo antes dicho Palella &
Martins (2012) expresan:

El pensamiento científico acredita su existencia
en la especie humana. Se habla de ciencia desde el momento en que
fue factible describir y explicar la naturaleza, el
comportamiento, los estados y las conexiones entre objetos
propios de los diferentes campos de la realidad.
(p.23).

Sin embargo, Según León (2013) los inicios
del método científico datan de la época
Galileo, Bacon, Newton, Descartes, Da Vinci y el renacimiento,
debido a la crisis escolástica. Para esa época el
mundo se conocía a través de lo que enseñaba
la iglesia. Pero se encuentran muchos vacíos para explicar
algunos fenómenos en la teoría de la iglesia, que
lleva a estos investigadores a empezar a buscar respuestas a los
fenómenos que no podían ser explicados a
través de la religión. De esta manera se marcan los
orígenes del método científico
(p.31).

A partir de esto se crea el Método
Científico, como método que ayuda al ser humano a
poder comprender, describir y explicar el mundo que los rodea.
Debido a que este método sigue pasos sistematizados y
lógicos deductivos que llevan a conseguir los logros
propuestos. Pero que es el Método Científico en
sí, y que se puede conseguir mediante el uso del
Método Científico. Esto lo describe Palella (2012)
de la siguiente manera:

Este método es objetivo y tiene capacidad de
predicción, control y generalización. Su
misión principal es la de contribuir al desarrollo y
validación de los conocimientos. Permite diferenciar la
investigación de la especulación y el conocimiento
científico (universal, necesario, sistemático y
metódico) del vulgar (particular, contingente,
asistemático y ametódico) (p.27).

Aquí Palella da algunas características
del Método y Conocimiento Científico del cual ya se
había dicho es sistemático, ya que trabaja con
sistemas, y metódico debido a que sigue un método.
Todo esto sumado a la investigación cuantitativa la cual
es definida por Palella como: "aquella sobre la cual se recogen y
analizan datos cuantitativos sobre variables. …y procura
determinar la …asociación o correlación
entre variables" (p.19).

De esta forma se puede decir que la investigación
cuantitativa es la que se encarga de cuantificar, asociar las
variables y también aplica generalizaciones. Por lo cual,
se puede decir que utiliza el método lógico
deductivo y es un gran apoyo para el Método
Científico. Ahora bien, porque decimos que el
Método Científico es un método que sirve
para recolectar un conocimiento valedero, objetivo e imparcial.
Esto lo podemos apreciar por sus características de las
cuales citaremos de Palela (2012):

La investigación científica es racional,
porque sus hallazgos se basan en la razón. Es objetiva, ya
que utiliza la observación y la experimentación
para verificar los datos obtenidos. Es general, porque a pesar de
trabajar con casos particulares sus aportes pueden ser
generalizados. Es sistematizada, porque se sustenta en ideas
interconectadas fundada en el orden y la coherencia. Trabaja con
el análisis, ya que descompone el todo en partes con el
fin de precisar su mecanismo interno. Sus aportes son claros y
precisos, debido al uso de técnicas que ayudan a que los
datos obtenidos tengan estas características. Es de
carácter acumulativo, porque construye los nuevos
conocimientos partiendo de investigaciones previas. Es
verificable, debido a que los datos obtenidos están
sujetos a comprobación. Es empírica, en el sentido
de que sus hallazgos provienen de la observación y la
experiencia. Y finalmente, es veraz, porque sus resultados se
expresan con franqueza, no admite engaño ni falsedad
(p.24-25).

Por todo lo antes mencionado, se puede decir que el
Método Científico y de enfoque cualitativo es aquel
que proporciona una serie de pasos a seguir que conducen al
investigador a obtener datos confiables y verificables sobre el
objeto de estudio. Es por ello, que esta es considerada como una
de los métodos más confiable para la
obtención de datos y nuevos conocimientos.

¿Qué es
Paradigma?

Para llegar a lo que es un paradigma se partirá
de las definiciones hechas por 3 teóricos el primero es
Khun (citado por Gurdían, 2007), él lo define "como
realizaciones científicas universalmente reconocidas que,
durante cierto tiempo, proporcionan modelos de problemas y
soluciones a una comunidad científica". (p. 60). Para Khun
los àradigmas son modelos reconocidos que dirigen el
proceso mediante el cual se solucionan problemas de manera
científica.

En el mismo orden de ideas y partiendo de la
definición proporcionada por Khun

Gurdían (2007) elabora su propia
definición de lo que es un paradigma, según esta
autora:

Un paradigma es un sistema teórico dominante en
la ciencia en cada período de su historia, que organiza y
dirige la investigación científica en determinada
dirección, también permite el surgimiento de
ciertas hipótesis e inhibe el desarrollo de otras,
así como centra la atención de quién
investiga en determinados aspectos de su objeto de estudio y
oscurece otros. (p. 60).

Ella da una definición un poco más
completa que la dicha por Khun pero siguiendo más o menos
esa línea. Para ella, un paradigma es un sistema
científico que dirige o pone los parámetros que el
científico debe seguir para realizar una
investigación. También Palella y Martins (2012) dan
una definición de paradigma que para ellos es: "Un
paradigma es una manera de representar objetivamente un
conocimiento, un modelo al cual se llega para convalidar una
manera de percibir la realidad, utilizando un lenguaje y una
forma particular de ver las cosas". (p.40).

Para todos ellos el paradigma es el modelo mediante el
cual se lleva a cabo la investigación científica y
que es bien aceptado por la comunidad científica,
también es el que predomina en la actualidad.

¿Cuáles son las
Características que Definen al Paradigma
Positivista?

Para hablar de paradigma positivista y caracterizarlo se
siguió un cuadro comparativo entre ambos paradigmas
elaborado por Palella y Martins (2012, p.44), del cual se
desprenden las siguientes características de este
paradigma:

  • a) Se fundamenta en el Positivismo
    Lógico o Empirismo.

  • b) Asume la objetividad como única
    vía para alcanzar el conocimiento.

  • c) Considera el conocimiento científico
    como sinónimo de descubrimiento de las relaciones
    causales que existen entre los fenómenos.

  • d) Parte del principio de que la realidad es
    objetiva, estática, fragmentable,
    convergente.

  • e) Sostiene que la naturaleza de la
    información es factible de ser traducida en
    números.

  • f) Procura explicar, predecir, controlar los
    fenómenos, verificar teorías. Establecer leyes
    para regular los fenómenos, libres de contexto y
    tiempo, deductivas; cuantitativas.

  • g) Mantiene independencia, neutralidad. El
    investigador asume un punto de vista externo, impersonal. Se
    enfrenta al sujeto como objeto de investigación.
    Guarda distancia con el objeto de estudio con el
    propósito de no sesgar los resultados. La
    teoría y la práctica constituyen entidades
    distintas.

  • h) En su criterio de calidad asume como tales
    los de validez, confiabilidad, objetividad.

  • i) Aplica procedimientos, tales como test de
    medición, cuestionarios, observación,
    experimentación.

  • j) Realiza análisis fundamentados en la
    estadística descriptiva e inferencia.

De esta manera, se nombraron 10 características
del paradigma positivista según Palella y Martins (2012).
Se puede decir que resalta el hecho de que es sistemático
y metódico, dando pasos a los investigadores para
proporcionar una investigación confiable y que permite
verificar sus datos al seguir los pasos del investigador entra
otras características que ayudan a describir dicho
paradigma.

¿Qué era el Círculo de
Viena?

El Círculo de Viena se fundó en el
año 1922, y estaba formado por un grupo de
científicos (en su mayoría filósofos), cuya
finalidad principal era unificar el criterio de la
investigación científica. Este grupo inspirado por
las teorías de Russell y Wittgenstein se basaba en el
positivismo y el lenguaje como única vía para la
unificación de las ciencias y de hacer una
investigación confiable. En función de esto Urmson
(citado por Rojas 2010) dice lo siguiente: "El Círculo de
Viena representa el movimiento filosófico denominado
neopositivismo o positivismo lógico. Sus antecedentes se
encuentran en los empiristas ingleses y en los filósofos
de la Ilustración". (p.21).

Urmson afirma que: "muchos componentes del
círculo original no eran filósofos sino
matemáticos, físicos y científicos sociales
que compartían un interés común por la
filosofía de la ciencia y un discurso común por la
metafísica académica prevaleciente entonces en
Alemania y en Europa central. (Rojas, 2010, p. 21).

En el mismo orden de ideas Santillana (citado por
León 2013) dice referente al Círculo de Viena lo
siguiente:

En 1922 un grupo de científicos austriacos
constituyen lo que llamaron "El Círculo de Viena", un
intento por fundamentar y construir una ciencia pura, unificada.
Siguiendo a Bertrand Russell y al primer Wittgenstein, afirman
que el mundo es la totalidad de los hechos (fenómenos), no
de las cosas (Noúmeno, esencia, realidades
metafísicas). Parten de una crítica a la
metafísica, desde el análisis del lenguaje dicen
que esta contiene palabras son sentido, proposiciones mal
construidas sintácticamente, pues no hay manera de decir
empíricamente sobre afirmaciones metafísicas. (p.
125).

Rojas (2010) hablando referente al propósito de
la formación del Círculo de Viena dice:

La idea central del círculo de Viena
consistía en conformar una filosofía
científica. La matemática y la lógica,
así como la física, debían constituirse en
los grandes modelos de toda forma de discurso científico.
El programa positivista de Comte en el siglo XIX debía ser
culminado, convirtiendo la biología, la psicología
y la sociología en ciencias positivistas. La
unificación de las ciencias se llevaría a cabo
reduciendo todas las preposiciones observacionales a la lengua
fisicalista, con lo cual se mostraría la existencia de un
núcleo común a todas las ciencias positivistas.
(p.21)

El Círculo de Viena Defendían el
Positivismo Lógico, es decir, el conocimiento basado desde
lo que se expone a los sentidos. Durante una década
publicaron varios artículos demostrando como el
positivismo de Comte debía ser el parámetro que
definiera como debían hacer las investigaciones.
También pretendieron unificar las investigaciones en todas
las ciencias fundamentándolas en el positivismo
lógico ó empirismo. Su trabajo se vio detenido con
la muerte de su fundador y el estallido de la Segunda Guerra
Mundial.

Algunos
Representantes del Círculo de Viena

Según Rojas (2010) Entre los miembros más
prominentes de este grupo se contaban Rudolf Carnap, Otto
Neurath, Friedrich Waismann, Philipp Frank, Hans Hahn, Herbert
Feigl, Víctor Kraft, Félix Kaufmann y Kurt Godel,
Hans Reichenbach, Carl Hempel, Karl Meneger, Richar Von Mies,
Joergen Joergensen, Charles W. Morris y A. J. Ayer. (p. 21).
Algunas de estas personalidades también son nombradas por
(Katz, 2010, p.79).

¿Quién fue el Máximo
Representante del Círculo de Viena?

Como ya se ha mencionado el famoso Círculo de
Viena se constituyó basándose en las ideas de
Bertrand Russel y al primer Wittgenstein. Ellos trataban de
mantener viva las ideas propuestas por estos teóricos.
Según la historia el fundador fue el filósofo
Moritz Schlick motivado por uno de sus asistentes. En
función de esto Katz (2010) dice:

Ya antes de la Primera Guerra Mundial un grupo de
jóvenes, la mayoría de los cuales había
estudiado Física, Matemática o Ciencias Sociales,
se reunían en un café de Viena para discutir sobre
cuestiones de filosofía de la ciencia inspirados por el
positivismo de Ernst Mach. Entre estos jóvenes se
encontraban el filósofo Moritz Schlick —a quien se
considera "fundador" del grupo — Philipp Frank, graduado en
Física, Hans Hahn, matemático, y el
sociólogo y economista Otto Neurath.

También dice refiriéndose a su
fundación que esta fue en 1924, y a sugerencia de Herbert
Feigl (físico y filósofo, asistente de Schlick).
Dicho Círculo se creó con la finalidad principal de
ser un grupo de debate que se reuniría los viernes por la
noche. "Este grupo, cuyas propuestas filosóficas fueron
bautizadas como positivismo o neopositivismo
lógico
, supuso el inicio del Círculo de Viena,
que, con el tiempo, alcanzaría el reconocimiento
internacional". (Katz, 2010, p. 79).

¿Será que el Paradigma
Interpretativo Emerge con Fuerza en la Investigación
Educativa desplazando a Otros, y el Paradigma Positivista se
Resigna a Morir?

 Debido al auge de las ciencias sociales y a la
necesidad de interpretar la parte de la razón, es decir,
¿el porqué las personas hacen las cosas que hacen?,
surge el Paradigma Interpretativo de carácter cualitativo.
Sin embargo, el Paradigma Positivista representa una fuerza mayor
a la hora de la validez de los datos en contraposición con
el Paradigma Cualitativo. En ese orden de ideas, Palella y
Martins (2012) dicen lo siguiente: "El paradigma con enfoque
cuantitativo es poderoso en términos de validez externa,
debido a que, con una muestra representativa de la
población, se pueden hacer inferencias aplicables a la
población a la cual pertenece la muestra."
(p.42).

El Enfoque Positivista Cuantitativo sigue vigente y es
más utilizado y aceptado que el Interpretativo; por lo
cual, estos mismos autores sostienen que: "hoy en día, hay
un predominio claro de la investigación cuantitativa sobre
la cualitativa." (p.42).

Según ellos esto no es producto del azar o que se
resiste a morir, sino a la historia que tiene lo ha llevado a
convertirse en el método más confiable. De esta
forma ellos afirman que: "El hecho de que la metodología
cuantitativa sea la más utilizada no es producto del azar
sino de la evolución del método científico a
los largo de los años." (p.42).

Sin embargo, el Paradigma Interpretativo surge como una
necesidad para las ciencias sociales y como una alternativa a los
parámetros puestos por el Paradigma Positivista. En
función de esto Rojas (2010) dice que este surge "Como una
reacción contra las posiciones que, obsesionadas por el
objetivismo y el cientificismo, pretenden acceder al estudio del
hombre y del hecho social con los mismos métodos
utilizados por las ciencias naturales." (p.24).

Por otro lado, estos autores antes citados concuerdan
con que la tendencia de hoy está enfocada en usar ambos
métodos en conjunto. Así Rojas (2010) dice que: "La
tendencia actual parece orientarse hacia la complementariedad
metodológica, restándole importancia a las
diferencias que se inscriben en lo ontológico o en lo
epistemológico." (p.17). En el mismo orden de ideas,
Palella y Martins (2012) dicen que: "La combinación de
ambos procedimientos cuantitativos y cualitativos en una misma
investigación, probablemente podría ayudar a
corregir los sesgos propios de cada método."
(p.42).

En función de lo antes dicho, no debemos dejar de
lado el Paradigma Crítico. El cual, tiene por finalidad
"El mejoramiento radical de la existencia humana". Este paradigma
trata de traer al hombre la libertad de pensar y de dominar su
propia existencia. En función de eso González
(2013) dice en referencia al Paradigma Crítico que este:
"surge como respuesta a la necesidad de admitir la posibilidad de
una ciencia social que no sea ni puramente empírica ni
solo interpretativa. El paradigma Crítico introduce la
ideología de forma explícita y autoreflexión
crítica en los procesos del conocimiento."
(p.30).

Se puede decir que el Paradigma Interpretativo
está teniendo un gran auge hoy en día debido a las
alternativas que ofrece sobre todo para las ciencias sociales.
Esto no quiere decir que se esté imponiendo sobre el
Paradigma Positivista ya que es este tiene gran trayectoria y es
de gran importancia para las ciencias (matemática,
física, química) debido a que los datos obtenidos
con este tipo de investigación son más confiables.
Definitivamente debido a lo firme que se encuentra el
método científico, no se resigna a morir sino que
se mantiene, pero no hay que dejar de lado el Paradigma
Cualitativo y su alternativas para conseguir respuestas que no
proporciona el otro paradigma. También hay que considerar
la utilización de ambos métodos para una validez
mayor en los resultados obtenidos en la investigación. Lo
cual se pude hacer a través del Paradigma
Crítico.

Referente a la investigación educativa, pareciera
que por ser de carácter social en su mayoría fuese
el paradigma interpretativo el que quisiera predominar. Sin
embargo, el uso del paradigma crítico podría ser
una alternativa para unificar los criterios sin irse a los
extremos.

¿Cuál es la importancia  o
 beneficio en el campo de la investigación
cuantitativa, con el hecho de trabajar con
muestras?

Las muestras son un porción representativa de la
población objeto de estudios, su importancia para el campo
de la investigación cuantitativa se deriva de varios
factores. Entre ellas se encuentra la importancia de los datos
obtenidos, los cuales son los que le dan credibilidad a la
investigación y se representa a través de
números, que son tratados de forma estadística para
logra la confiabilidad y la credibilidad de dicha
investigación. En función de ello Palella y Martins
(2012) dice:

El paradigma con enfoque cuantitativo, Se caracteriza
por privilegiar el dato como esencia sustancial de su
argumentación. El dato es la expresión concreta que
simboliza una realidad. Esta afirmación se sustenta en el
principio de que lo que no se puede medir no es digno de
credibilidad. Por ello, todo debe estar soportado en el
número, en el dato estadístico que aproxima a la
manifestación del fenómeno. (p. 40)

Las investigaciones cuantitativas trabajan con la
aplicación de instrumentos para la recolección de
datos. Los cuales están sujetos a ser validados para
comprobar la eficiencia y confiabilidad de los mismos. Palela y
Martins (2012: p.41) refiriéndose a los instrumentos
afirma: "Éstos estarán sujetos a procesos de
validez y confiabilidad acordes con la muestra tomada, las formas
de recolección, los instrumentos empleados y una serie de
prevenciones que le den rigor y seriedad".

Pero qué hace necesario la utilización de
la muestra. Esto se debe a que en muchos casos la
población es muy grande para poder cubrirla toda. Esto
toma mucho tiempo y dinero y en algunas ocasiones es imposible de
cubrirla en totalidad. Entonces se procede a tomar una muestra,
la cual debe ser representativa de la población. Respecto
a estos Ander-Egg (1982) dice:

Por lo general, resulta imposible encuestar a todos los
individuos de un barrio o una ciudad, y más todavía
cuando se trata de una región o un país. Ello
demandaría un gasto extraordinario en tiempo y dinero. En
razón de este problema ha surgido el método del
muestreo. (p.170)

La importancia de utilizar una muestra, en lugar de
trabajar con toda la población objeto de estudio, es
debido al tamaño de la misma. Lo cual, hace más
fácil, su manejo, tabulación y
representación. Pero ésta debe contener una
representación total de población para evitar el
sesgo de la misma, así se garantiza su fiabilidad. Por
otro lado, omitir este procedimiento puede llevar a que se
estudien más individuos de los necesarios o que en su
lugar, la muestra no sea representativa de la población
por falta de individuos que estudiar. Todo esto puede llevar a
que esa muestra no sea confiable. Es por ello que Palella y
Martins (2012) dice:

La ausencia de este paso puede conducir a que el estudio
carezca del número adecuado de sujetos, con lo cual es
imposible estimar adecuadamente los parámetros ni
identificar diferencias significativas, cuando en realidad
existen. Por otra parte, se corre el riesgo de estudiar un
número innecesario de personas, lo cual acarrea no
sólo pérdida de tiempo e inversión
innecesaria de recursos, sino que pueda afectar el estudio. (p.
105)

Palella y Martins también proporcionan una serie
de razones por las cuales es mejor estudiar una muestra y no la
población entre ellas establece (p.106):

  • 1. Ahorro de tiempo, debido al estudio de menos
    componentes de la población.

  • 2. Disminución de costos.

  • 3. Imposibilidad de estudiar la totalidad de la
    población, por ser inaccesible o porque resulta tarea
    imposible de realizar.

  • 4. Factibilidad de reducir la heterogeneidad de
    una población al establecer los criterios de
    inclusión y/o exclusión.

Por otro lado, tenemos como problema, que la muestra
para que sea confiable debe ser representativa de la
población. Como ya se había dicho para evitar el
sesgo. El cual, no es otra cosa que la falta de representatividad
de la población, para ello es necesario que la muestra
contenga de forma homogénea a la población objeto
de estudio, lo cual es su representatividad. En función de
eso Balestrini (2002) dice:

El problema que se puede presentar, consiste en
garantizar que la muestra sea representativa de todo el universo
donde se obtuvo, sujeto a estudio; que sea lo más precisa
y al mismo tiempo contenga el mínimo de sesgos posibles.
Lo cual implica, que contenga todos los elementos de la misma
proporción que existen en éste; de tal manera, que
sea posible generalizar los resultados obtenidos a partir de la
muestra, a todo el universo. (p.141)

¿Cuándo se debe hacer uso de
una o más muestras, en un estudio
cuantitativo?

Como ya se había dicho la muestra se utiliza
cuando la población objeto de estudio es muy grande lo
cual hace que estudiarla toda represente un gasto de tiempo y de
recursos y a veces es imposible estudiarla toda. Para evitar esto
se procede a seleccionar una muestra representativa de la
población. Palela y Martins (2012: p. 105) afirma que el
investigador tiene dos opciones a la hora de realizar su
investigación: "abarcar la totalidad de la
población, lo que significa hacer un censo o un estudio de
tipo censal, o seleccionar un número determinado de
unidades de la población, es decir, determinar una
muestra."

A parte de los estudios de tipo censal, hay casos en que
la población es tan pequeña que se puede hacer el
estudio de manera de incluir a la totalidad de la misma. De no
ser así, lo más recomendable es hacer uso de la
muestra. La cual, como ya se ha dicho, debe ser representativa.
Esto según Palella y Martins (2012: p.106) significa que
las: "la escogencia de una parte representativa de una
población, cuyas características reproduce de la
manera más exacta posible."

Los tipos de muestra según diversos autores son
probabilísticas y no probabilísticas y esta a su
vez tienen su propia sub-clasificación. La
selección de tipo de muestra a utilizar depende del tipo
de estudio y del tamaño de la población. En algunos
casos de habla de representatividad cuando se habla de un treinta
por ciento (30%), pero hay formulas que pueden llevar a la
selección de una muestra apropiada según el
tamaño de la población.

¿Qué significa Confiabilidad en
el ámbito cuantitativo?

Según Palella y Martins (2012):

La confiabilidad es definida como la ausencia de error
aleatorio en un instrumento de recolección de datos.
Representa la influencia del azar en la medida: es decir, es el
grado en el que las mediciones están libres de la
desviación producida por los errores causales.
(p.164)

En función de lo antes dicho podemos decir que la
confiabilidad en el ámbito cuantitativo se deriva de la
ausencia de error en las mediciones y los resultados obtenidos.
Para ello necesitamos contar con instrumentos para la
recolección de datos que sean confiables. Palella y
Martins dan unas pautas que ayudan a verificar la confiablidad
del instrumento dice que: "Un instrumento es confiable cuando,
aplicado al mismo sujeto en diferentes circunstancias, los
resultados o puntajes obtenidos son aproximadamente los
mismos."

También Carrera y Vázquez (2007: p. 88)
hablan del nivel de confiabilidad como: "el margen de confianza
que se tendrá al momento de generalizar los resultados
obtenidos después de haber estudiado a la muestra, con
respecto a la población". De esta manera, se puede decir
que la confianza que dan los resultados obtenidos se debe al
grado de confiabilidad de los instrumentos para su
recolección.

¿A qué se hace referencia en
el ámbito cuantitativo, cuando hablamos de Coeficiente de
confiabilidad?

Partiendo de la definición de Sampieri,
Fernández y Baptista (2010: p. 200) sobre confiabilidad
como "el grado en que un instrumento produce resultados
consistentes y coherentes". Según esto hay que ver en
qué grado o proporción este instrumento cumple los
requisitos de confiabilidad, para ello se ha elaborado un
coeficiente de confiabilidad el cual se encarga de medir la
confiabilidad del dicho instrumento y generalmente oscila entre
cero (0) y uno (1). Donde 0 representa una confiabilidad nula
mientras que 1 representa el máximo de confiabilidad.
Existen diversos procedimientos para calcular la confiabilidad de
un instrumento de medición. Todos utilizan fórmulas
que producen coeficientes de confiabilidad.

En qué
consiste una Prueba Piloto

Dice Balestrini (2002: p. 166) que una vez
diseñados los instrumentos hay que probarlos con el
propósito de establecer su validez y esto se hace mediante
una prueba piloto. La cual, también puede ser llamada:
"prueba piloto, estudio piloto, pre test, test preliminar o
investigación de ensayo".

Esto se hace para demostrar la eficiencia del
instrumento de recolección de datos en condiciones reales.
Para ello es necesario probar dicho instrumento sobre un grupo
pequeño de la población. Esto se hace mediante la
aplicación de una prueba piloto. Referente a esto Palella
y Martins (2012) dicen:

Esta prueba piloto ha de garantizar las mismas
condiciones de realización que el trabajo de campo real.
Su misión radica en contrastar hasta que punto funciona el
instrumento como se pretendía en el primer momento y
verificar si las peguntas provocan la reacción deseada.
(p.164)

Estos autores también sostienen que la prueba
piloto deberá de revisar los siguientes
aspectos:

  • 1. Verificar de si el instrumento responde a
    los objetivos del estudio.

  • 2. Comprobación de la fluidez del
    instrumento. Es decir, si posee lógica y consistencia
    interna.

  • 3. Compresión de las preguntas y
    aceptabilidad por parte del encuestado e idoneidad en las
    secuencias.

  • 4. Idoneidad de las respuestas cerradas
    preestablecidas.

  • 5. Discriminación de las
    preguntas.

  • 6. Valoración de los casos en que los
    investigados no respondan al instrumento.

  • 7. Idoneidad de todos los aspectos del
    protocolo de procedimientos.

  • 8. Aspectos logísticos: disponibilidad,
    recogida y entrada de instrumentos, la propia
    supervisión, entre otros. (p.165)

¿Cuándo se dice que un
instrumento es confiable?

Según Sampieri, Fernández y Baptista
(2010: p. 200): "La confiabilidad de un instrumento de
medición se refiere al grado en que su aplicación
repetida al mismo individuo u objeto produce resultados iguales".
En concordancia con ellos Palella y Martins (2012: p. 165) dice:
"un instrumento es confiable cuando, aplicado al mismo sujeto en
diferentes circunstancias, los resultados o puntajes obtenidos
son aproximadamente los mismo".

En función de lo antes dicho se puede concluir
que un instrumento de medición es confiable cuando ha sido
probado en varias ocasiones con el mismo sujeto u objetos y los
resultados obtenidos concuerdan en todos ellos.

Explique mínimo cuatro coeficientes
de confiabilidad. Explique por qué se aplica cada uno,
cuando se aplica y como se interpretan sus resultados. Establecer
fórmula y ejemplo de cada uno (son cuatro por
todo)

Existen muchas maneras de determinar la confiabilidad de
un instrumento, pero las más usadas son:

  • a) Repetición de Test o Prueba
    Test/Retest:
    Consiste en volver a aplicar la misma prueba
    al mismo sujeto o grupo de sujetos: esta segunda prueba se
    llama retest. Generalmente, se sugiere que el intervalo de la
    repetición de las pruebas (test-retst) para todas las
    edades no sea mayor a seis meses. Este procedimiento permite
    hablar de estabilidad de las mediciones obtenidos
    administrando una técnica como coeficiente de
    correlación de Pearson. (Palella y Martins 2010: p.
    166, 167). Ejemplo: aplicar un examen de Matemática
    donde se aplicarían 2 exámenes con los mismo
    tipos de ejercicios y el mismo contenido a evaluar, pero
    cambiando los ejercicios.

  • b) Formas Equivalente: Se puede
    establecer la confiabilidad de una prueba
    administrándola en diferentes momentos al mismo
    sujeto, pero tomando la precaución de que la prueba
    sea diferente en cuanto a los contenidos aunque equivalentes
    3n cuanto a la forma. Entre las técnicas más
    utilizadas para esta modalidad está el coeficiente de
    correlación de Perason. (Palella y Martins 2010: p.
    167). Ejemplo: aquí se aplicarían 2 pruebas
    diferentes contenido, pero el mismo formato, sólo
    cambiaria el fondo, más no la forma.

  • c) División por Mitades: Se puede
    establecer la confiabilidad de un instrumento
    dividiéndolo en dos partes equivalentes (similares en
    grado de dificultad; por ejemplo) y asignando un puntaje a
    cada parte. Si ambos puntajes son muy similares para un mismo
    sujeto, el instrumento no sólo tiene confiabilidad
    sino también consistencia interna. Esto último
    no podía constatarse con la técnica test-retest
    ni con la administración de formas equivalente. Entre
    las técnicas más utilizadas para esta modalidad
    se encuentran: Pearson/Speraman-Brown, Rulón y
    Guttman. (Palella y Martins 2010: p. 167, 168)

  • d) Análisis de Homogeneidad de los
    Ítemes:
    Al medir el constructo de los
    ítemes, se cuenta con el KR20/21 y el alfa de
    Cronbach.

Según el coeficiente KR20/21, se divide el
instrumento en tantas partes como ítemes tenga, como
hicieron Kuder y Richarson, (este coeficiente se aplica
para instrumentos cuyas repuestas son dicotómicas; por
ejemplo sí – no, lo que permite examinar como se ha
sido respondido cada ítem en relación con los
resultantes. Cuando se habla de consistencia interna se puede
referir a consistencia de los ítemes o a consistencia de
las respuestas del sujeto: la confiabilidad tiene relación
directa con el primer tipo de consistencia.

El coeficiente alfa de Cronbach es una
técnica que permite establecer niveles de confiabilidad
que es, junto con la validez, un requisito mínimo de un
buen instrumento de medición presentado con una escala
tipo Likert. (Palella y Martins 2010: p. 168)

Monografias.com

¿Qué Significado o
Concepción le Da el Docente de Investigación
Educativa a la Estadística en el Campo de la
Investigación Cuantitativa, es decir, Como la
Percibe?

La investigación cualitativa es una forma de
producir conocimientos que si bien no usa el concepto de
muestra en su forma tradicional, orientado a la
definición de la significación estadística
de un grupo para un universo poblacional, apoyada en la
representatividad del grupo en relación con la
población, sí nos permite enfrentar problemas que
por su naturaleza implican el estudio de grupos grandes, como por
ejemplo, estudios comunitarios e institucionales. (p.
79)

La muestra ignora a los sujetos en su
condición diferenciada y en sus capacidades para aportar
aspectos diferentes sobre el problema estudiado, pues se
establece con el objetivo de aplicar instrumentos estandarizados,
que permitan correlaciones estadísticas significativas
sobre las respuestas del grupo ante preguntas semejantes. El
objetivo de la muestra es producir un conocimiento
comparativo que tome valor general a través del empleo de
la estadística; por tanto, su propio diseño
está asociado a una definición metodológica
más general. (p. 79)

La muestra implica, de hecho, una
legitimación estadística del conocimiento
producido, cuyo requisito es la información estandarizada
susceptible de comparaciones y correlaciones, garantizando que
esa información se produzca a través de los mismos
instrumentos para garantizar su validez. Éstos son
requisitos epistemológicos totalmente contradictorios a
los asumidos por la epistemología cualitativa, pues no
conducen al conocimiento de los aspectos cualitativos de lo
estudiado. (p. 80)

Como expresa Silverman (1994): "Es importante reconocer
que la generalización de casos a la población no
sigue una lógica puramente estadística en la
investigación de campo." Citando a Mitchell (1983), Bryman
argumenta que: "el problema puede ser tratado en términos
de la generabilidad a proposiciones teóricas más
que a poblaciones o universos". (pág. 160). El aspecto de
la significación de los casos estudiados pasa a ser,
entonces, una cuestión teórica y no
estadística, lo que gana toda su significación
cuando comprendemos que el objetivo de la investigación
cualitativa está en la construcción de modelos
sobre el problema estudiado y no en la caracterización de
poblaciones. (p 82)

González (2007) expresa que:

Asumir la realidad como compleja supone admitir,
así mismo, la heterogeneidad social, la diversidad de
perspectivas en una situación. De manera que la muestra en
la investigación cualitativa no obedece a criterios de
representación numérica. Es más bien un
muestreo intencional cuyo propósito es seleccionar sujetos
que puedan aportar información relevante para un estudio
en profundidad. El muestreo responde a la dinámica de la
investigación. (p. 66).

Según Rojas (2010):

En los estudios cualitativos el tamaño de la
muestra no es importante desde una perspectiva
probabilística, pues el interés del investigador no
es generalizar los resultados de su estudio a una
población más amplia. Lo que se busca en la
indagación cualitativa es profundidad. Nos conciernen
casos (participantes, personas, organizaciones, eventos,
animales, hechos, etc.) que nos ayuden a entender el
fenómeno de estudio y a responder las preguntas de
investigación. (p. 394)

Los tipos de muestra que suelen utilizarse en las
investigaciones son las no probabilísticas o dirigidas,
cuya finalidad no es la generalización en términos
de probabilidad. También se les conoce como "guiadas por
uno o varios propósitos", pues la elección de los
elementos depende de razones relacionadas con las
características de la investigación. (p.
396)

Referencias

Ander-Egg, E. (1982). Técnicas de
Investigación Social
. (19ª ed.). Buenos Aires,
Argentina: HVMANITAS.

Balestrini, M. (2002). Como se Elabora el Proyecto
de Investigación
. (6ª ed.). Caracas, Venezuela:
CONSULTORES ASOCIADOS.

Carrera, L. Y Vázquez, M. (2007).
Técnicas en el Trabajo de Investigación.
(1ª ed.). Caracas, Venezuela: PANAPO.

González, F. (2007). Investigación
Cualitativa y Subjetividad. Los Procesos de Construcción
de la Información
. (1ª ed.). México:
McGraw Hill.

González, Y. (2013). Abordaje de la
Metodología Cualitativa y la
Investigación-Acción para la Transformación
Social (2ª ed.). Ciudad Guayana, Venezuela:
DABOSAN.

Gurdían-Fernández, A. (2007). El
Paradigma Cualitativo en la Investigación
Socio-Educativa
. San José, Costa Rica:
IDER.

Hernández, R., Fernández C. y Baptista P.
(2010). Metodología de la Investigación.
(5ª ed.). Perú: McGraw Hill.

Katz, M. (2010). Epistemología e Historia de
la Química. Curso – 2010
. Argentina: Instituto
Superior del Profesorado "Dr. Joaquín V.
González".

León, F. (2013). Teoría del
Conocimiento
(3a ed.). Valencia, Venezuela: Universidad de
Carabobo.

Palella, S. y Martins, F. (2012). Metodología
de la Investigación Cuantitativa
(3ª ed.).
Caracas, Venezuela: FEDUPEL.

Rojas, B. (2010). Investigación Cualitativa
Fundamentos y Praxis
(2ª ed.). Caracas, Venezuela:
FEDUPEL.

Sampieri, R., Fernández C. y Baptista P. (2010).
Metodología de la Investigación. (5ª
ed.). Perú: MCGRAW HILL.

 

 

Autor:

Lcdo. Ángel Avilez

Profesor:

Msc. Néstor
Martínez

Valencia, junio 2014

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter