Descargar

Informe de investigación científica en el paradigma cuantitativo

Enviado por Angel Avilez


  1. Lineamientos que Justifica la Investigación Científica y de Enfoque Cuantitativo
  2. ¿Qué es Paradigma?
  3. ¿Qué era el Círculo de Viena?
  4. Algunos Representantes del Círculo de Viena
  5. ¿Cuál es la importancia  o  beneficio en el campo de la investigación cuantitativa, con el hecho de trabajar con muestras?
  6. ¿Cuándo se debe hacer uso de una o más muestras, en un estudio cuantitativo?
  7. ¿Qué significa Confiabilidad en el ámbito cuantitativo?
  8. En qué consiste una Prueba Piloto
  9. ¿Cuándo se dice que un instrumento es confiable?
  10. Referencias

Lineamientos que Justifica la Investigación Científica y de Enfoque Cuantitativo

La investigación científica surge por la necesidad que tiene el hombre de comprender y conocer el mundo que le rodea. Es por ello que empieza a crear métodos que lo lleven a conseguir ese objetivo. De esta manera se originan las primeras hipótesis y con ellas las investigaciones.

En función de lo antes dicho Palella & Martins (2012) expresan:

El pensamiento científico acredita su existencia en la especie humana. Se habla de ciencia desde el momento en que fue factible describir y explicar la naturaleza, el comportamiento, los estados y las conexiones entre objetos propios de los diferentes campos de la realidad. (p.23).

Sin embargo, Según León (2013) los inicios del método científico datan de la época Galileo, Bacon, Newton, Descartes, Da Vinci y el renacimiento, debido a la crisis escolástica. Para esa época el mundo se conocía a través de lo que enseñaba la iglesia. Pero se encuentran muchos vacíos para explicar algunos fenómenos en la teoría de la iglesia, que lleva a estos investigadores a empezar a buscar respuestas a los fenómenos que no podían ser explicados a través de la religión. De esta manera se marcan los orígenes del método científico (p.31).

A partir de esto se crea el Método Científico, como método que ayuda al ser humano a poder comprender, describir y explicar el mundo que los rodea. Debido a que este método sigue pasos sistematizados y lógicos deductivos que llevan a conseguir los logros propuestos. Pero que es el Método Científico en sí, y que se puede conseguir mediante el uso del Método Científico. Esto lo describe Palella (2012) de la siguiente manera:

Este método es objetivo y tiene capacidad de predicción, control y generalización. Su misión principal es la de contribuir al desarrollo y validación de los conocimientos. Permite diferenciar la investigación de la especulación y el conocimiento científico (universal, necesario, sistemático y metódico) del vulgar (particular, contingente, asistemático y ametódico) (p.27).

Aquí Palella da algunas características del Método y Conocimiento Científico del cual ya se había dicho es sistemático, ya que trabaja con sistemas, y metódico debido a que sigue un método. Todo esto sumado a la investigación cuantitativa la cual es definida por Palella como: "aquella sobre la cual se recogen y analizan datos cuantitativos sobre variables. …y procura determinar la …asociación o correlación entre variables" (p.19).

De esta forma se puede decir que la investigación cuantitativa es la que se encarga de cuantificar, asociar las variables y también aplica generalizaciones. Por lo cual, se puede decir que utiliza el método lógico deductivo y es un gran apoyo para el Método Científico. Ahora bien, porque decimos que el Método Científico es un método que sirve para recolectar un conocimiento valedero, objetivo e imparcial. Esto lo podemos apreciar por sus características de las cuales citaremos de Palela (2012):

La investigación científica es racional, porque sus hallazgos se basan en la razón. Es objetiva, ya que utiliza la observación y la experimentación para verificar los datos obtenidos. Es general, porque a pesar de trabajar con casos particulares sus aportes pueden ser generalizados. Es sistematizada, porque se sustenta en ideas interconectadas fundada en el orden y la coherencia. Trabaja con el análisis, ya que descompone el todo en partes con el fin de precisar su mecanismo interno. Sus aportes son claros y precisos, debido al uso de técnicas que ayudan a que los datos obtenidos tengan estas características. Es de carácter acumulativo, porque construye los nuevos conocimientos partiendo de investigaciones previas. Es verificable, debido a que los datos obtenidos están sujetos a comprobación. Es empírica, en el sentido de que sus hallazgos provienen de la observación y la experiencia. Y finalmente, es veraz, porque sus resultados se expresan con franqueza, no admite engaño ni falsedad (p.24-25).

Por todo lo antes mencionado, se puede decir que el Método Científico y de enfoque cualitativo es aquel que proporciona una serie de pasos a seguir que conducen al investigador a obtener datos confiables y verificables sobre el objeto de estudio. Es por ello, que esta es considerada como una de los métodos más confiable para la obtención de datos y nuevos conocimientos.

¿Qué es Paradigma?

Para llegar a lo que es un paradigma se partirá de las definiciones hechas por 3 teóricos el primero es Khun (citado por Gurdían, 2007), él lo define "como realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica". (p. 60). Para Khun los àradigmas son modelos reconocidos que dirigen el proceso mediante el cual se solucionan problemas de manera científica.

En el mismo orden de ideas y partiendo de la definición proporcionada por Khun

Gurdían (2007) elabora su propia definición de lo que es un paradigma, según esta autora:

Un paradigma es un sistema teórico dominante en la ciencia en cada período de su historia, que organiza y dirige la investigación científica en determinada dirección, también permite el surgimiento de ciertas hipótesis e inhibe el desarrollo de otras, así como centra la atención de quién investiga en determinados aspectos de su objeto de estudio y oscurece otros. (p. 60).

Ella da una definición un poco más completa que la dicha por Khun pero siguiendo más o menos esa línea. Para ella, un paradigma es un sistema científico que dirige o pone los parámetros que el científico debe seguir para realizar una investigación. También Palella y Martins (2012) dan una definición de paradigma que para ellos es: "Un paradigma es una manera de representar objetivamente un conocimiento, un modelo al cual se llega para convalidar una manera de percibir la realidad, utilizando un lenguaje y una forma particular de ver las cosas". (p.40).

Para todos ellos el paradigma es el modelo mediante el cual se lleva a cabo la investigación científica y que es bien aceptado por la comunidad científica, también es el que predomina en la actualidad.

¿Cuáles son las Características que Definen al Paradigma Positivista?

Para hablar de paradigma positivista y caracterizarlo se siguió un cuadro comparativo entre ambos paradigmas elaborado por Palella y Martins (2012, p.44), del cual se desprenden las siguientes características de este paradigma:

  • a) Se fundamenta en el Positivismo Lógico o Empirismo.

  • b) Asume la objetividad como única vía para alcanzar el conocimiento.

  • c) Considera el conocimiento científico como sinónimo de descubrimiento de las relaciones causales que existen entre los fenómenos.

  • d) Parte del principio de que la realidad es objetiva, estática, fragmentable, convergente.

  • e) Sostiene que la naturaleza de la información es factible de ser traducida en números.

  • f) Procura explicar, predecir, controlar los fenómenos, verificar teorías. Establecer leyes para regular los fenómenos, libres de contexto y tiempo, deductivas; cuantitativas.

  • g) Mantiene independencia, neutralidad. El investigador asume un punto de vista externo, impersonal. Se enfrenta al sujeto como objeto de investigación. Guarda distancia con el objeto de estudio con el propósito de no sesgar los resultados. La teoría y la práctica constituyen entidades distintas.

  • h) En su criterio de calidad asume como tales los de validez, confiabilidad, objetividad.

  • i) Aplica procedimientos, tales como test de medición, cuestionarios, observación, experimentación.

  • j) Realiza análisis fundamentados en la estadística descriptiva e inferencia.

De esta manera, se nombraron 10 características del paradigma positivista según Palella y Martins (2012). Se puede decir que resalta el hecho de que es sistemático y metódico, dando pasos a los investigadores para proporcionar una investigación confiable y que permite verificar sus datos al seguir los pasos del investigador entra otras características que ayudan a describir dicho paradigma.

¿Qué era el Círculo de Viena?

El Círculo de Viena se fundó en el año 1922, y estaba formado por un grupo de científicos (en su mayoría filósofos), cuya finalidad principal era unificar el criterio de la investigación científica. Este grupo inspirado por las teorías de Russell y Wittgenstein se basaba en el positivismo y el lenguaje como única vía para la unificación de las ciencias y de hacer una investigación confiable. En función de esto Urmson (citado por Rojas 2010) dice lo siguiente: "El Círculo de Viena representa el movimiento filosófico denominado neopositivismo o positivismo lógico. Sus antecedentes se encuentran en los empiristas ingleses y en los filósofos de la Ilustración". (p.21).

Urmson afirma que: "muchos componentes del círculo original no eran filósofos sino matemáticos, físicos y científicos sociales que compartían un interés común por la filosofía de la ciencia y un discurso común por la metafísica académica prevaleciente entonces en Alemania y en Europa central. (Rojas, 2010, p. 21).

En el mismo orden de ideas Santillana (citado por León 2013) dice referente al Círculo de Viena lo siguiente:

En 1922 un grupo de científicos austriacos constituyen lo que llamaron "El Círculo de Viena", un intento por fundamentar y construir una ciencia pura, unificada. Siguiendo a Bertrand Russell y al primer Wittgenstein, afirman que el mundo es la totalidad de los hechos (fenómenos), no de las cosas (Noúmeno, esencia, realidades metafísicas). Parten de una crítica a la metafísica, desde el análisis del lenguaje dicen que esta contiene palabras son sentido, proposiciones mal construidas sintácticamente, pues no hay manera de decir empíricamente sobre afirmaciones metafísicas. (p. 125).

Rojas (2010) hablando referente al propósito de la formación del Círculo de Viena dice:

La idea central del círculo de Viena consistía en conformar una filosofía científica. La matemática y la lógica, así como la física, debían constituirse en los grandes modelos de toda forma de discurso científico. El programa positivista de Comte en el siglo XIX debía ser culminado, convirtiendo la biología, la psicología y la sociología en ciencias positivistas. La unificación de las ciencias se llevaría a cabo reduciendo todas las preposiciones observacionales a la lengua fisicalista, con lo cual se mostraría la existencia de un núcleo común a todas las ciencias positivistas. (p.21)

El Círculo de Viena Defendían el Positivismo Lógico, es decir, el conocimiento basado desde lo que se expone a los sentidos. Durante una década publicaron varios artículos demostrando como el positivismo de Comte debía ser el parámetro que definiera como debían hacer las investigaciones. También pretendieron unificar las investigaciones en todas las ciencias fundamentándolas en el positivismo lógico ó empirismo. Su trabajo se vio detenido con la muerte de su fundador y el estallido de la Segunda Guerra Mundial.

Algunos Representantes del Círculo de Viena

Según Rojas (2010) Entre los miembros más prominentes de este grupo se contaban Rudolf Carnap, Otto Neurath, Friedrich Waismann, Philipp Frank, Hans Hahn, Herbert Feigl, Víctor Kraft, Félix Kaufmann y Kurt Godel, Hans Reichenbach, Carl Hempel, Karl Meneger, Richar Von Mies, Joergen Joergensen, Charles W. Morris y A. J. Ayer. (p. 21). Algunas de estas personalidades también son nombradas por (Katz, 2010, p.79).

¿Quién fue el Máximo Representante del Círculo de Viena?

Como ya se ha mencionado el famoso Círculo de Viena se constituyó basándose en las ideas de Bertrand Russel y al primer Wittgenstein. Ellos trataban de mantener viva las ideas propuestas por estos teóricos. Según la historia el fundador fue el filósofo Moritz Schlick motivado por uno de sus asistentes. En función de esto Katz (2010) dice:

Ya antes de la Primera Guerra Mundial un grupo de jóvenes, la mayoría de los cuales había estudiado Física, Matemática o Ciencias Sociales, se reunían en un café de Viena para discutir sobre cuestiones de filosofía de la ciencia inspirados por el positivismo de Ernst Mach. Entre estos jóvenes se encontraban el filósofo Moritz Schlick —a quien se considera "fundador" del grupo — Philipp Frank, graduado en Física, Hans Hahn, matemático, y el sociólogo y economista Otto Neurath.

También dice refiriéndose a su fundación que esta fue en 1924, y a sugerencia de Herbert Feigl (físico y filósofo, asistente de Schlick). Dicho Círculo se creó con la finalidad principal de ser un grupo de debate que se reuniría los viernes por la noche. "Este grupo, cuyas propuestas filosóficas fueron bautizadas como positivismo o neopositivismo lógico, supuso el inicio del Círculo de Viena, que, con el tiempo, alcanzaría el reconocimiento internacional". (Katz, 2010, p. 79).

¿Será que el Paradigma Interpretativo Emerge con Fuerza en la Investigación Educativa desplazando a Otros, y el Paradigma Positivista se Resigna a Morir?

 Debido al auge de las ciencias sociales y a la necesidad de interpretar la parte de la razón, es decir, ¿el porqué las personas hacen las cosas que hacen?, surge el Paradigma Interpretativo de carácter cualitativo. Sin embargo, el Paradigma Positivista representa una fuerza mayor a la hora de la validez de los datos en contraposición con el Paradigma Cualitativo. En ese orden de ideas, Palella y Martins (2012) dicen lo siguiente: "El paradigma con enfoque cuantitativo es poderoso en términos de validez externa, debido a que, con una muestra representativa de la población, se pueden hacer inferencias aplicables a la población a la cual pertenece la muestra." (p.42).

El Enfoque Positivista Cuantitativo sigue vigente y es más utilizado y aceptado que el Interpretativo; por lo cual, estos mismos autores sostienen que: "hoy en día, hay un predominio claro de la investigación cuantitativa sobre la cualitativa." (p.42).

Según ellos esto no es producto del azar o que se resiste a morir, sino a la historia que tiene lo ha llevado a convertirse en el método más confiable. De esta forma ellos afirman que: "El hecho de que la metodología cuantitativa sea la más utilizada no es producto del azar sino de la evolución del método científico a los largo de los años." (p.42).

Sin embargo, el Paradigma Interpretativo surge como una necesidad para las ciencias sociales y como una alternativa a los parámetros puestos por el Paradigma Positivista. En función de esto Rojas (2010) dice que este surge "Como una reacción contra las posiciones que, obsesionadas por el objetivismo y el cientificismo, pretenden acceder al estudio del hombre y del hecho social con los mismos métodos utilizados por las ciencias naturales." (p.24).

Por otro lado, estos autores antes citados concuerdan con que la tendencia de hoy está enfocada en usar ambos métodos en conjunto. Así Rojas (2010) dice que: "La tendencia actual parece orientarse hacia la complementariedad metodológica, restándole importancia a las diferencias que se inscriben en lo ontológico o en lo epistemológico." (p.17). En el mismo orden de ideas, Palella y Martins (2012) dicen que: "La combinación de ambos procedimientos cuantitativos y cualitativos en una misma investigación, probablemente podría ayudar a corregir los sesgos propios de cada método." (p.42).

En función de lo antes dicho, no debemos dejar de lado el Paradigma Crítico. El cual, tiene por finalidad "El mejoramiento radical de la existencia humana". Este paradigma trata de traer al hombre la libertad de pensar y de dominar su propia existencia. En función de eso González (2013) dice en referencia al Paradigma Crítico que este: "surge como respuesta a la necesidad de admitir la posibilidad de una ciencia social que no sea ni puramente empírica ni solo interpretativa. El paradigma Crítico introduce la ideología de forma explícita y autoreflexión crítica en los procesos del conocimiento." (p.30).

Se puede decir que el Paradigma Interpretativo está teniendo un gran auge hoy en día debido a las alternativas que ofrece sobre todo para las ciencias sociales. Esto no quiere decir que se esté imponiendo sobre el Paradigma Positivista ya que es este tiene gran trayectoria y es de gran importancia para las ciencias (matemática, física, química) debido a que los datos obtenidos con este tipo de investigación son más confiables. Definitivamente debido a lo firme que se encuentra el método científico, no se resigna a morir sino que se mantiene, pero no hay que dejar de lado el Paradigma Cualitativo y su alternativas para conseguir respuestas que no proporciona el otro paradigma. También hay que considerar la utilización de ambos métodos para una validez mayor en los resultados obtenidos en la investigación. Lo cual se pude hacer a través del Paradigma Crítico.

Referente a la investigación educativa, pareciera que por ser de carácter social en su mayoría fuese el paradigma interpretativo el que quisiera predominar. Sin embargo, el uso del paradigma crítico podría ser una alternativa para unificar los criterios sin irse a los extremos.

¿Cuál es la importancia  o  beneficio en el campo de la investigación cuantitativa, con el hecho de trabajar con muestras?

Las muestras son un porción representativa de la población objeto de estudios, su importancia para el campo de la investigación cuantitativa se deriva de varios factores. Entre ellas se encuentra la importancia de los datos obtenidos, los cuales son los que le dan credibilidad a la investigación y se representa a través de números, que son tratados de forma estadística para logra la confiabilidad y la credibilidad de dicha investigación. En función de ello Palella y Martins (2012) dice:

El paradigma con enfoque cuantitativo, Se caracteriza por privilegiar el dato como esencia sustancial de su argumentación. El dato es la expresión concreta que simboliza una realidad. Esta afirmación se sustenta en el principio de que lo que no se puede medir no es digno de credibilidad. Por ello, todo debe estar soportado en el número, en el dato estadístico que aproxima a la manifestación del fenómeno. (p. 40)

Las investigaciones cuantitativas trabajan con la aplicación de instrumentos para la recolección de datos. Los cuales están sujetos a ser validados para comprobar la eficiencia y confiabilidad de los mismos. Palela y Martins (2012: p.41) refiriéndose a los instrumentos afirma: "Éstos estarán sujetos a procesos de validez y confiabilidad acordes con la muestra tomada, las formas de recolección, los instrumentos empleados y una serie de prevenciones que le den rigor y seriedad".

Pero qué hace necesario la utilización de la muestra. Esto se debe a que en muchos casos la población es muy grande para poder cubrirla toda. Esto toma mucho tiempo y dinero y en algunas ocasiones es imposible de cubrirla en totalidad. Entonces se procede a tomar una muestra, la cual debe ser representativa de la población. Respecto a estos Ander-Egg (1982) dice:

Por lo general, resulta imposible encuestar a todos los individuos de un barrio o una ciudad, y más todavía cuando se trata de una región o un país. Ello demandaría un gasto extraordinario en tiempo y dinero. En razón de este problema ha surgido el método del muestreo. (p.170)

La importancia de utilizar una muestra, en lugar de trabajar con toda la población objeto de estudio, es debido al tamaño de la misma. Lo cual, hace más fácil, su manejo, tabulación y representación. Pero ésta debe contener una representación total de población para evitar el sesgo de la misma, así se garantiza su fiabilidad. Por otro lado, omitir este procedimiento puede llevar a que se estudien más individuos de los necesarios o que en su lugar, la muestra no sea representativa de la población por falta de individuos que estudiar. Todo esto puede llevar a que esa muestra no sea confiable. Es por ello que Palella y Martins (2012) dice:

La ausencia de este paso puede conducir a que el estudio carezca del número adecuado de sujetos, con lo cual es imposible estimar adecuadamente los parámetros ni identificar diferencias significativas, cuando en realidad existen. Por otra parte, se corre el riesgo de estudiar un número innecesario de personas, lo cual acarrea no sólo pérdida de tiempo e inversión innecesaria de recursos, sino que pueda afectar el estudio. (p. 105)

Palella y Martins también proporcionan una serie de razones por las cuales es mejor estudiar una muestra y no la población entre ellas establece (p.106):

  • 1. Ahorro de tiempo, debido al estudio de menos componentes de la población.

  • 2. Disminución de costos.

  • 3. Imposibilidad de estudiar la totalidad de la población, por ser inaccesible o porque resulta tarea imposible de realizar.

  • 4. Factibilidad de reducir la heterogeneidad de una población al establecer los criterios de inclusión y/o exclusión.

Por otro lado, tenemos como problema, que la muestra para que sea confiable debe ser representativa de la población. Como ya se había dicho para evitar el sesgo. El cual, no es otra cosa que la falta de representatividad de la población, para ello es necesario que la muestra contenga de forma homogénea a la población objeto de estudio, lo cual es su representatividad. En función de eso Balestrini (2002) dice:

El problema que se puede presentar, consiste en garantizar que la muestra sea representativa de todo el universo donde se obtuvo, sujeto a estudio; que sea lo más precisa y al mismo tiempo contenga el mínimo de sesgos posibles. Lo cual implica, que contenga todos los elementos de la misma proporción que existen en éste; de tal manera, que sea posible generalizar los resultados obtenidos a partir de la muestra, a todo el universo. (p.141)

¿Cuándo se debe hacer uso de una o más muestras, en un estudio cuantitativo?

Como ya se había dicho la muestra se utiliza cuando la población objeto de estudio es muy grande lo cual hace que estudiarla toda represente un gasto de tiempo y de recursos y a veces es imposible estudiarla toda. Para evitar esto se procede a seleccionar una muestra representativa de la población. Palela y Martins (2012: p. 105) afirma que el investigador tiene dos opciones a la hora de realizar su investigación: "abarcar la totalidad de la población, lo que significa hacer un censo o un estudio de tipo censal, o seleccionar un número determinado de unidades de la población, es decir, determinar una muestra."

A parte de los estudios de tipo censal, hay casos en que la población es tan pequeña que se puede hacer el estudio de manera de incluir a la totalidad de la misma. De no ser así, lo más recomendable es hacer uso de la muestra. La cual, como ya se ha dicho, debe ser representativa. Esto según Palella y Martins (2012: p.106) significa que las: "la escogencia de una parte representativa de una población, cuyas características reproduce de la manera más exacta posible."

Los tipos de muestra según diversos autores son probabilísticas y no probabilísticas y esta a su vez tienen su propia sub-clasificación. La selección de tipo de muestra a utilizar depende del tipo de estudio y del tamaño de la población. En algunos casos de habla de representatividad cuando se habla de un treinta por ciento (30%), pero hay formulas que pueden llevar a la selección de una muestra apropiada según el tamaño de la población.

¿Qué significa Confiabilidad en el ámbito cuantitativo?

Según Palella y Martins (2012):

La confiabilidad es definida como la ausencia de error aleatorio en un instrumento de recolección de datos. Representa la influencia del azar en la medida: es decir, es el grado en el que las mediciones están libres de la desviación producida por los errores causales. (p.164)

En función de lo antes dicho podemos decir que la confiabilidad en el ámbito cuantitativo se deriva de la ausencia de error en las mediciones y los resultados obtenidos. Para ello necesitamos contar con instrumentos para la recolección de datos que sean confiables. Palella y Martins dan unas pautas que ayudan a verificar la confiablidad del instrumento dice que: "Un instrumento es confiable cuando, aplicado al mismo sujeto en diferentes circunstancias, los resultados o puntajes obtenidos son aproximadamente los mismos."

También Carrera y Vázquez (2007: p. 88) hablan del nivel de confiabilidad como: "el margen de confianza que se tendrá al momento de generalizar los resultados obtenidos después de haber estudiado a la muestra, con respecto a la población". De esta manera, se puede decir que la confianza que dan los resultados obtenidos se debe al grado de confiabilidad de los instrumentos para su recolección.

¿A qué se hace referencia en el ámbito cuantitativo, cuando hablamos de Coeficiente de confiabilidad?

Partiendo de la definición de Sampieri, Fernández y Baptista (2010: p. 200) sobre confiabilidad como "el grado en que un instrumento produce resultados consistentes y coherentes". Según esto hay que ver en qué grado o proporción este instrumento cumple los requisitos de confiabilidad, para ello se ha elaborado un coeficiente de confiabilidad el cual se encarga de medir la confiabilidad del dicho instrumento y generalmente oscila entre cero (0) y uno (1). Donde 0 representa una confiabilidad nula mientras que 1 representa el máximo de confiabilidad. Existen diversos procedimientos para calcular la confiabilidad de un instrumento de medición. Todos utilizan fórmulas que producen coeficientes de confiabilidad.

En qué consiste una Prueba Piloto

Dice Balestrini (2002: p. 166) que una vez diseñados los instrumentos hay que probarlos con el propósito de establecer su validez y esto se hace mediante una prueba piloto. La cual, también puede ser llamada: "prueba piloto, estudio piloto, pre test, test preliminar o investigación de ensayo".

Esto se hace para demostrar la eficiencia del instrumento de recolección de datos en condiciones reales. Para ello es necesario probar dicho instrumento sobre un grupo pequeño de la población. Esto se hace mediante la aplicación de una prueba piloto. Referente a esto Palella y Martins (2012) dicen:

Esta prueba piloto ha de garantizar las mismas condiciones de realización que el trabajo de campo real. Su misión radica en contrastar hasta que punto funciona el instrumento como se pretendía en el primer momento y verificar si las peguntas provocan la reacción deseada. (p.164)

Estos autores también sostienen que la prueba piloto deberá de revisar los siguientes aspectos:

  • 1. Verificar de si el instrumento responde a los objetivos del estudio.

  • 2. Comprobación de la fluidez del instrumento. Es decir, si posee lógica y consistencia interna.

  • 3. Compresión de las preguntas y aceptabilidad por parte del encuestado e idoneidad en las secuencias.

  • 4. Idoneidad de las respuestas cerradas preestablecidas.

  • 5. Discriminación de las preguntas.

  • 6. Valoración de los casos en que los investigados no respondan al instrumento.

  • 7. Idoneidad de todos los aspectos del protocolo de procedimientos.

  • 8. Aspectos logísticos: disponibilidad, recogida y entrada de instrumentos, la propia supervisión, entre otros. (p.165)

¿Cuándo se dice que un instrumento es confiable?

Según Sampieri, Fernández y Baptista (2010: p. 200): "La confiabilidad de un instrumento de medición se refiere al grado en que su aplicación repetida al mismo individuo u objeto produce resultados iguales". En concordancia con ellos Palella y Martins (2012: p. 165) dice: "un instrumento es confiable cuando, aplicado al mismo sujeto en diferentes circunstancias, los resultados o puntajes obtenidos son aproximadamente los mismo".

En función de lo antes dicho se puede concluir que un instrumento de medición es confiable cuando ha sido probado en varias ocasiones con el mismo sujeto u objetos y los resultados obtenidos concuerdan en todos ellos.

Explique mínimo cuatro coeficientes de confiabilidad. Explique por qué se aplica cada uno, cuando se aplica y como se interpretan sus resultados. Establecer fórmula y ejemplo de cada uno (son cuatro por todo)

Existen muchas maneras de determinar la confiabilidad de un instrumento, pero las más usadas son:

  • a) Repetición de Test o Prueba Test/Retest: Consiste en volver a aplicar la misma prueba al mismo sujeto o grupo de sujetos: esta segunda prueba se llama retest. Generalmente, se sugiere que el intervalo de la repetición de las pruebas (test-retst) para todas las edades no sea mayor a seis meses. Este procedimiento permite hablar de estabilidad de las mediciones obtenidos administrando una técnica como coeficiente de correlación de Pearson. (Palella y Martins 2010: p. 166, 167). Ejemplo: aplicar un examen de Matemática donde se aplicarían 2 exámenes con los mismo tipos de ejercicios y el mismo contenido a evaluar, pero cambiando los ejercicios.

  • b) Formas Equivalente: Se puede establecer la confiabilidad de una prueba administrándola en diferentes momentos al mismo sujeto, pero tomando la precaución de que la prueba sea diferente en cuanto a los contenidos aunque equivalentes 3n cuanto a la forma. Entre las técnicas más utilizadas para esta modalidad está el coeficiente de correlación de Perason. (Palella y Martins 2010: p. 167). Ejemplo: aquí se aplicarían 2 pruebas diferentes contenido, pero el mismo formato, sólo cambiaria el fondo, más no la forma.

  • c) División por Mitades: Se puede establecer la confiabilidad de un instrumento dividiéndolo en dos partes equivalentes (similares en grado de dificultad; por ejemplo) y asignando un puntaje a cada parte. Si ambos puntajes son muy similares para un mismo sujeto, el instrumento no sólo tiene confiabilidad sino también consistencia interna. Esto último no podía constatarse con la técnica test-retest ni con la administración de formas equivalente. Entre las técnicas más utilizadas para esta modalidad se encuentran: Pearson/Speraman-Brown, Rulón y Guttman. (Palella y Martins 2010: p. 167, 168)

  • d) Análisis de Homogeneidad de los Ítemes: Al medir el constructo de los ítemes, se cuenta con el KR20/21 y el alfa de Cronbach.

Según el coeficiente KR20/21, se divide el instrumento en tantas partes como ítemes tenga, como hicieron Kuder y Richarson, (este coeficiente se aplica para instrumentos cuyas repuestas son dicotómicas; por ejemplo sí – no, lo que permite examinar como se ha sido respondido cada ítem en relación con los resultantes. Cuando se habla de consistencia interna se puede referir a consistencia de los ítemes o a consistencia de las respuestas del sujeto: la confiabilidad tiene relación directa con el primer tipo de consistencia.

El coeficiente alfa de Cronbach es una técnica que permite establecer niveles de confiabilidad que es, junto con la validez, un requisito mínimo de un buen instrumento de medición presentado con una escala tipo Likert. (Palella y Martins 2010: p. 168)

edu.red

¿Qué Significado o Concepción le Da el Docente de Investigación Educativa a la Estadística en el Campo de la Investigación Cuantitativa, es decir, Como la Percibe?

La investigación cualitativa es una forma de producir conocimientos que si bien no usa el concepto de muestra en su forma tradicional, orientado a la definición de la significación estadística de un grupo para un universo poblacional, apoyada en la representatividad del grupo en relación con la población, sí nos permite enfrentar problemas que por su naturaleza implican el estudio de grupos grandes, como por ejemplo, estudios comunitarios e institucionales. (p. 79)

La muestra ignora a los sujetos en su condición diferenciada y en sus capacidades para aportar aspectos diferentes sobre el problema estudiado, pues se establece con el objetivo de aplicar instrumentos estandarizados, que permitan correlaciones estadísticas significativas sobre las respuestas del grupo ante preguntas semejantes. El objetivo de la muestra es producir un conocimiento comparativo que tome valor general a través del empleo de la estadística; por tanto, su propio diseño está asociado a una definición metodológica más general. (p. 79)

La muestra implica, de hecho, una legitimación estadística del conocimiento producido, cuyo requisito es la información estandarizada susceptible de comparaciones y correlaciones, garantizando que esa información se produzca a través de los mismos instrumentos para garantizar su validez. Éstos son requisitos epistemológicos totalmente contradictorios a los asumidos por la epistemología cualitativa, pues no conducen al conocimiento de los aspectos cualitativos de lo estudiado. (p. 80)

Como expresa Silverman (1994): "Es importante reconocer que la generalización de casos a la población no sigue una lógica puramente estadística en la investigación de campo." Citando a Mitchell (1983), Bryman argumenta que: "el problema puede ser tratado en términos de la generabilidad a proposiciones teóricas más que a poblaciones o universos". (pág. 160). El aspecto de la significación de los casos estudiados pasa a ser, entonces, una cuestión teórica y no estadística, lo que gana toda su significación cuando comprendemos que el objetivo de la investigación cualitativa está en la construcción de modelos sobre el problema estudiado y no en la caracterización de poblaciones. (p 82)

González (2007) expresa que:

Asumir la realidad como compleja supone admitir, así mismo, la heterogeneidad social, la diversidad de perspectivas en una situación. De manera que la muestra en la investigación cualitativa no obedece a criterios de representación numérica. Es más bien un muestreo intencional cuyo propósito es seleccionar sujetos que puedan aportar información relevante para un estudio en profundidad. El muestreo responde a la dinámica de la investigación. (p. 66).

Según Rojas (2010):

En los estudios cualitativos el tamaño de la muestra no es importante desde una perspectiva probabilística, pues el interés del investigador no es generalizar los resultados de su estudio a una población más amplia. Lo que se busca en la indagación cualitativa es profundidad. Nos conciernen casos (participantes, personas, organizaciones, eventos, animales, hechos, etc.) que nos ayuden a entender el fenómeno de estudio y a responder las preguntas de investigación. (p. 394)

Los tipos de muestra que suelen utilizarse en las investigaciones son las no probabilísticas o dirigidas, cuya finalidad no es la generalización en términos de probabilidad. También se les conoce como "guiadas por uno o varios propósitos", pues la elección de los elementos depende de razones relacionadas con las características de la investigación. (p. 396)

Referencias

Ander-Egg, E. (1982). Técnicas de Investigación Social. (19ª ed.). Buenos Aires, Argentina: HVMANITAS.

Balestrini, M. (2002). Como se Elabora el Proyecto de Investigación. (6ª ed.). Caracas, Venezuela: CONSULTORES ASOCIADOS.

Carrera, L. Y Vázquez, M. (2007). Técnicas en el Trabajo de Investigación. (1ª ed.). Caracas, Venezuela: PANAPO.

González, F. (2007). Investigación Cualitativa y Subjetividad. Los Procesos de Construcción de la Información. (1ª ed.). México: McGraw Hill.

González, Y. (2013). Abordaje de la Metodología Cualitativa y la Investigación-Acción para la Transformación Social (2ª ed.). Ciudad Guayana, Venezuela: DABOSAN.

Gurdían-Fernández, A. (2007). El Paradigma Cualitativo en la Investigación Socio-Educativa. San José, Costa Rica: IDER.

Hernández, R., Fernández C. y Baptista P. (2010). Metodología de la Investigación. (5ª ed.). Perú: McGraw Hill.

Katz, M. (2010). Epistemología e Historia de la Química. Curso – 2010. Argentina: Instituto Superior del Profesorado "Dr. Joaquín V. González".

León, F. (2013). Teoría del Conocimiento (3a ed.). Valencia, Venezuela: Universidad de Carabobo.

Palella, S. y Martins, F. (2012). Metodología de la Investigación Cuantitativa (3ª ed.). Caracas, Venezuela: FEDUPEL.

Rojas, B. (2010). Investigación Cualitativa Fundamentos y Praxis (2ª ed.). Caracas, Venezuela: FEDUPEL.

Sampieri, R., Fernández C. y Baptista P. (2010). Metodología de la Investigación. (5ª ed.). Perú: MCGRAW HILL.

 

 

Autor:

Lcdo. Ángel Avilez

Profesor:

Msc. Néstor Martínez

Valencia, junio 2014