lunes, 1 de noviembre de 2021

La Población o unidades de estudio

 



No siempre, pero en la mayoría de las situaciones en investigación, sí se realizas el estudio en una muestra. Sólo cuando queremos efectuar un censo debemos incluir todos los casos (personas, animales, plantas, objetos) del universo o la población. Por ejemplo, los estudios motivacionales en empresas suelen abarcar a todos sus empleados para evitar que los excluidos piensen que su opinión no se toma en cuenta. Las muestras se utilizan por economía de tiempo y recursos. Aquí el interés se centra en “qué o quiénes”, es decir, en los participantes, objetos, sucesos o colectividades de estudio (las unidades de muestreo), lo cual depende del planteamiento y los alcances de la investigación.

Así, en la situación en que el objetivo sea describir el uso que hacen los niños de la televisión, lo más factible sería interrogar a un grupo de niños. También serviría entrevistar a los padres de los niños. Escoger entre los niños o sus padres, o ambos, dependería no sólo del objetivo de la investigación, sino del diseño de ésta. En el caso de la investigación que hemos ejemplificado a lo largo del libro, en la que el propósito básico del estudio es describir la relación entre los niños y la televisión, se podría determinar que los participantes seleccionados para el estudio fueran niños que respondieran sobre sus conductas y percepciones relacionadas con este medio de comunicación.

 

Criterios para su selección

  • Definir los casos (participantes u otros, seres vivos, objetos, fenómenos, procesos, sucesos o comunidades) sobre los cuales se habrán de recolectar los datos.
  • Delimitar la población
  • Elegir el método de selección de la muestra probabilístico o no probabilístico
  • Precisar el tamaño de la muestra requerido
  • Aplicar el procedimiento de selección
  • Obtener la muestra


Muestreo

La muestra es, en esencia, un subgrupo de la población. Digamos que es un subconjunto de elementos que pertenecen a ese conjunto definido en sus características al que llamamos población. Con frecuencia leemos y escuchamos hablar de muestra representativa, muestra al azar, muestra aleatoria, como si con los simples términos se pudiera dar más seriedad a los resultados. En realidad, pocas veces es posible medir a toda la población, por lo que obtenemos o seleccionamos una muestra y, desde luego, se pretende que este subconjunto sea un reflejo fiel del conjunto de la población.

Todas las muestras (en el enfoque cuantitativo) deben ser representativas; por tanto, el uso de los términos al azar y aleatorio sólo denota un tipo de procedimiento mecánico relacionado con la probabilidad y con la selección de elementos o unidades, pero no aclara el tipo de muestra ni el procedimiento de muestreo. Hablemos entonces de estos conceptos en los siguientes apartados.



Tipos de Muestreo

Básicamente, categorizamos las muestras en dos grandes ramas: las muestras no probabilísticas y las muestras probabilísticas.

En las muestras probabilísticas, todos los elementos de la población tienen la misma posibilidad de ser escogidos para la muestra y se obtienen definiendo las características de la población y el tamaño de la muestra, y por medio de una selección aleatoria o mecánica de las unidades de muestreo/análisis.

Imagínese el procedimiento para obtener el número premiado en un sorteo de lotería. Este número se va formando en el momento del sorteo. En las loterías tradicionales, a partir de las esferas con un dígito que se extraen (después de revolverlas mecánicamente) hasta formar el número, de manera que todos los números tienen la misma probabilidad de ser elegidos.

Ejemplo: Como segundo caso mencionaremos una investigación para saber cuántos niños han sido vacunados contra ciertas enfermedades y cuántos no en un país, y las variables asociadas (nivel socioeconómico, lugar donde viven, educación, etc.) y sus motivaciones. Se conforma una muestra probabilística nacional de —digamos por ahora— 1 600 lactantes, y de los datos obtenidos se toman decisiones para formular estrategias de vacunación, así como mensajes dirigidos a persuadir a la población para que vacunen oportunamente a los niños.

Comentario: este tipo de estudio, en el que se hace una asociación entre variables y cuyos resultados servirán de base para tomar decisiones políticas que afectarán a una población, se logra mediante una investigación por encuestas y, definitivamente, por medio de una MUESTRA PROBABILÍSTICA, diseñada de tal manera que los datos lleguen a ser generalizados a la población con una estimación precisa del error que pudiera cometerse al realizar tales generalizaciones.

En las muestras no probabilísticas, la elección de los elementos no depende de la probabilidad, sino de causas relacionadas con las características de la investigación o los propósitos del investigador (Johnson, 2014, Hernández-Sampieri et al., 2013 y Battaglia, 2008b). Aquí el procedimiento no es mecánico ni se basa en fórmulas de probabilidad, sino que depende del proceso de toma de decisiones de un investigador o de un grupo de investigadores y, desde luego, las muestras seleccionadas obedecen a otros criterios de investigación. Elegir entre una muestra probabilística o una no probabilística depende del planteamiento del estudio, del diseño de investigación y de la contribución que se piensa hacer con ella. Para ilustrar lo anterior mencionaremos tres ejemplos que toman en cuenta dichas consideraciones.

Ejemplo: En un primer ejemplo tenemos una investigación sobre el suicidio en prisiones de Estados Unidos (Suto y Arnaut, 2010). Dado que el suicidio es una causa frecuente de muerte en las cárceles estadounidenses y que la mayoría de los trabajos previos se centraban en cuestiones demográficas y más bien superficiales, los investigadores diseñaron un estudio con el objetivo de explorar los motivos por los cuales los reclusos intentan suicidarse. Para cumplir dicho propósito se seleccionó una muestra no probabilística de prisioneros que accedieran voluntariamente a participar. De esta manera, se realizaron entrevistas exhaustivas a 24 individuos de seis cárceles de Ohio, quienes se expresaron con franqueza sobre sus experiencias.

Comentario: en este caso es adecuada una muestra NO PROBABILÍSTICA, pues se trata de un estudio exploratorio y un enfoque fundamentalmente cualitativo; es decir, no resulta concluyente, sino que su finalidad es documentar ciertas experiencias. Este tipo de estudios pretende generar datos e hipótesis que constituyan la materia prima para investigaciones más precisas. Asimismo, es complicado tener acceso a las prisiones y a los participantes.

 Referencia bibliográfica

Sampieri, R. (1998). Metodología de la Investigación. Edit, Mac Graw Hill

 

 

Procedimiento de validez y confiabilidad de los instrumentos

 

La validez es la cualidad de un instrumento que permite afirmar que éste cumple al menos tres condiciones: que mide realmente el evento que pretende medir, que mide todos los aspectos que conforman el evento que se pretende medir, y que mide exclusivamente el evento que se desea medir, sin que se filtren características de otros eventos (Thorndike, 1980).

La validez se logra inicialmente en el proceso de construcción del instrumento, pero luego existen algunas técnicas para corroborar que se logró realmente un índice aceptable de validez, y que además proporciona información sobre algunos aspectos que habría que modificar en el instrumento en caso de que este índice no se logre. Para construir un instrumento válido es necesario comprender que cada atributo de la validez corresponde a un tipo particular de ésta y se logra mediante ciertos procedimientos.


Validez de Constructo




La validez de constructo se va configurando en el proceso de elaboración del instrumento, cuando se crea la tabla de operacionalización, en la medida que se identifican sinergias e indicios pertinentes al concepto del evento. Si este proceso no se cumple adecuadamente, cualquier técnica de validación que se aplique arrojará que el instrumento no es válido.

Un constructo es un concepto. Por lo tanto, la validez de constructo parte del principio de que el investigador, cuando formula su pregunta de investigación escoge los eventos que pretende estudiar, y durante la elaboración de su fundamentación teórica precisa cómo los va a definir. Estos conceptos, que en realidad son abstracciones del investigador o de un grupo de teóricos, se denominan constructos (Nunnally, 1987). Un instrumento tiene validez de constructo cuando sus ítems están en correspondencia con las sinergias -o dimensiones- y con los indicios que se derivan del concepto del evento que se va a medir.

 

Validez de Contenido

 

En este tipo de validez se responde a la siguiente pregunta. ¿Los ítems que constituyen el test son realmente una muestra representativa del dominio de contenido o dominio conductual que nos interesa? Para que nos entendamos, un dominio o campo conductual es una agrupación hipotética de todos los ítems posibles que cubren un área psicológica particular. Por ejemplo, un test de vocabulario debe ser una muestra adecuada del dominio de ítem posibles en esta área.

 

En este sentido, la validez de contenido es una “medida” de lo adecuado del muestreo. Se dice “medida” entre comillas, ya que este tipo de validez consiste en una serie de estimaciones u opiniones. Estas estimaciones no proporcionan un índice cuantitativo de validez.

 


Validez aparente

 

La validez aparente, como su nombre indica, mide cuán representativo es un proyecto de investigación "en apariencia" y si parece ser un buen proyecto o no.

 

Se basa en el principio de analizar el proyecto y evaluar la viabilidad de la investigación, con poca medida objetiva. Si bien la validez aparente, a veces denominada validez de representación, es una medida débil de validez, su importancia no puede ser subestimada. Este enfoque de "sentido común" a menudo ahorra un montón de tiempo, recursos y esfuerzo.

 

En muchos sentidos, la validez aparente se compara con la validez de contenido, que trata de medir el grado en que un experimento representa lo que está tratando de medir. La diferencia es que la validez de contenido es evaluada con cuidado, mientras que la validez aparente es una medida más general y los sujetos a menudo hacen su aporte.

 

La validez aparente es clasificada como "evidencia débil" que apoya la validez de constructo, pero eso no significa que no sea correcta, sólo que debes tener cuidado.

 

Por ejemplo, imagina un artículo de investigación sobre el Calentamiento Global. Una persona común puede leerlo y pensar que se trata de un experimento fuerte que destaca los procesos detrás del Calentamiento Global. Por el contrario, un profesor de climatología distinguido podría leerlo y considerar que el artículo y el razonamiento detrás de las técnicas son muy precarios. Este ejemplo muestra la importancia de la validez aparente como un filtro útil para eliminar la mala investigación del campo de la ciencia a través de la revisión de colegas.

 


Confiabilidad de Consistencia Interna

 

La fiabilidad de la consistencia interna define la consistencia de los resultados de una prueba, garantizando que los diversos elementos que miden los diferentes constructos brinden resultados consistentes.

Por ejemplo, una prueba de inglés se divide en vocabulario, ortografía, puntuación y gramática. La prueba de fiabilidad de la consistencia interna arroja una medida que indica que cada una de estas diferentes aptitudes es medida correcta y fiablemente.

Una manera de probar esto es mediante un método de prueba y repetición, en donde se administra la misma prueba después de la prueba inicial y se comparan los resultados. Sin embargo, esto crea algunos problemas y por eso muchos investigadores prefieren medir la consistencia interna incluyendo dos versiones del mismo instrumento en la misma prueba. Nuestro ejemplo de la prueba de inglés podría incluir dos preguntas muy similares sobre el uso de la coma, dos sobre ortografía, etc.

 

El principio básico es que el estudiante debe dar la misma respuesta a ambas. Si no sabe cómo utilizar la coma responderá mal las dos veces. Algunas manipulaciones estadísticas ingeniosas aportarán la fiabilidad de la consistencia interna y permitirán que el investigador evalúe la fiabilidad de la prueba.

 


Pruebas Paralelas

Consiste en comparar las notas de dos pruebas muy similares (paralelas), de modo que la correlación entre ambas revela el coeficiente de fiabilidad. No obstante, la dificultad de este método estriba, precisamente, en redactar dos pruebas que sean efectivamente paralelas.

 

 

Prueba de división por mitades

La prueba de división por mitades para la fiabilidad de la consistencia interna es el tipo más fácil y consiste en dividir una prueba en dos mitades.

Por ejemplo, un cuestionario para medir la extroversión podría dividirse en preguntas pares e impares. Los resultados de ambas mitades son analizados estadísticamente y si la correlación entre las dos es débil, entonces la prueba tiene un problema de fiabilidad.

La prueba de división por mitades da una medida entre 0 y 1, en donde 1 significa una correlación perfecta.

La división de la pregunta en dos partes debe ser al azar. Las pruebas de división por mitades era una forma popular de medir la fiabilidad, por su simplicidad y velocidad.

Sin embargo, en la era en donde las computadoras se ocupan de todos los cálculos, los científicos tienden a usar pruebas mucho más poderosas.


Prueba Alpha de Cron Bach

La prueba Alpha de Cron Bach no sólo promedia la correlación entre todas las combinaciones posibles de división por mitades, sino que permite respuestas de varios niveles.

Por ejemplo, una serie de preguntas podría pedir a los sujetos que calificaran su respuesta entre 1 y 5. Alpha de Cron Bach da una puntuación entre 0 y 1, en donde 0,7 es generalmente aceptado como un signo de fiabilidad aceptable.

La prueba también tiene en cuenta el tamaño de la muestra y el número de respuestas posibles. Se considera que tiene mayor precisión una prueba de 40 preguntas con calificaciones posibles entre 1 y 5 que una prueba de 10 preguntas con 3 niveles posibles de respuesta.

Por supuesto, incluso con la metodología inteligente de Cron Bach, lo que hace mucho más sencillo el cálculo en lugar de enloquecerse con cada permutación posible, sigue siendo mejor dejar esta prueba para las computadoras y los programas de hojas de cálculo estadísticos.


Prueba de Kuder-Richardson

La prueba de Kuder-Richardson para la fiabilidad de la consistencia interna es una versión más avanzada, y un poco más compleja, de la prueba de división por mitades.

En esta versión, la prueba calcula la correlación promedio de todas las combinaciones posibles de división por mitades en una prueba. La prueba de Kuder-Richardson también genera una correlación entre 0 y 1, con un resultado más exacto que la prueba de división por mitades. La debilidad de este enfoque, al igual que la división por mitades, es que la respuesta a cada pregunta debe ser una simple respuesta correcta o incorrecta, de 0 o 1.

En el caso de respuestas a escala múltiple, se requieren técnicas sofisticadas para medir la fiabilidad de la consistencia interna.


Test - Retest

supone administrar la misma prueba dos veces a los mismos sujetos, de forma que, si ésta es fiable, los aprendientes obtienen los mismos resultados en ambas ocasiones. Se trata de un método poco usado, dado que los alumnos pueden haber adquirido nuevos conocimientos durante el intervalo, haberse acostumbrado al método o, simplemente, hallarse fatigados durante la realización de una de las dos pruebas, de forma que es posible obtener resultados distintos entre ambas, debido a factores aleatorios.


Ejemplo de Validez de Criterio de Acción

 

Una empresa de encuestas desarrolla una prueba que cree que ubica a la gente en la escala política, en base a una serie de preguntas que establecen si la persona se inclina hacia la derecha o hacia la izquierda.

Con esta prueba, esperan predecir cómo va a votar la gente. Para evaluar la validez de criterio de la prueba, realizan un estudio piloto y eligen sólo miembros de los partidos políticos de izquierda y de derecha.

Si la prueba tiene una validez concurrente alta, los miembros del partido de izquierda deberían recibir puntuaciones que reflejen su ideología de izquierda. Del mismo modo, los miembros del partido de derecha deben recibir puntuaciones que indiquen que se encuentran a la derecha.

Si esto no sucede, entonces la prueba es defectuosa y necesita ser rediseñada. Si funciona, los investigadores pueden asumir que su prueba tiene una base sólida y que la validez de criterio es alta.

La mayoría de los encuestadores no se detiene allí y en unos pocos meses, cuando se cuenten los votos de las elecciones, les preguntarán a los sujetos cómo votaron realmente.

Esta validez predictiva les permite verificar dos veces su prueba, con una alta correlación que indique nuevamente que han desarrollado una prueba sólida de la ideología política.


Análisis de los Datos

 Definición de Análisis

 

Podríamos definir el análisis como el proceso a través del cual vamos más allá de los datos para acceder a la esencia del fenómeno de estudio, es decir, a su entendimiento y comprensión; el proceso por medio del cual el investigador expande los datos más allá de la narración descriptiva. Al margen de esta definición de partida, el término “análisis” se mueve entre unos márgenes muy amplios, existiendo cierta ambigüedad al respecto. Así, diferentes autores hacen distintas propuestas no existiendo un consenso sobre lo que el término significa, ni sobre las técnicas y estrategias para llevarlo a cabo.

 

En ocasiones, el término análisis es entendido como el proceso de codificar, de agrupar según significados, de recuperar datos. En este sentido, el análisis adquiere matices propios de tareas o procedimientos de procesamiento y organización de los datos, estando relativamente aislado del ejercicio de interpretación. Para otros autores, el análisis es entendido exclusivamente como el trabajo imaginativo y creativo de interpretación, relegando las tareas de categorización, organización y clasificación de los datos a una fase preliminar al análisis propiamente dicho. Nosotros nos inclinamos por adoptar una postura integradora entendiendo que el trabajo de organización e interpretación de los datos están intrínsecamente relacionados y que se realizan de forma paralela no teniendo sentido uno sin el otro.

 

 

Clasificación

 


 

Análisis descriptive: Este análisis busca explicar lo que sucedió con las variables, como ingresos, ventas, costos, datos demográficos, etc. Con el análisis descriptivo, la organización busca patrones y tendencias. Por ejemplo, ¿qué pasó con las ventas de ropa de mujer en el mes de julio? 

Análisis diagnóstico: Otro de los tipos de análisis es el análisis diagnóstico, este explica el «por qué» y el «cómo» entre un conjunto de datos en particular. Por ejemplo, ¿por qué subieron las ventas en algunos puntos de venta y no en otros? 

Análisis predictive: El análisis predictivo es otro de los tipos de análisis de datos. Como su nombre lo indica, trata de predecir el futuro y las acciones a tomar en base a cómo las variables se podrían comportar.  Por ejemplo, ¿funcionará una promoción en una tienda de la ciudad X en función de las características y el rendimiento de la ciudad, en regiones geográficas similares?

Análisis prescriptive: El análisis prescriptivo determina qué acción tomar para mejorar una situación o resolver un problema. Por ejemplo, si la promoción no funcionó tan bien como se esperaba, ¿qué podemos hacer para impulsar el crecimiento en las próximas semanas?

Análisis causal: El análisis causal es un tipo de análisis de datos que examina la causa y el efecto de las relaciones entre variables, centrándose en encontrar la causa de una correlación.

Para encontrar la causa, hay que cuestionar si las correlaciones observadas que conducen a la conclusión son válidas, ya que el simple hecho de mirar los datos (superficie) no ayudará a descubrir los mecanismos ocultos que subyacen a las correlaciones. Se aplica en estudios aleatorios centrados en la identificación de la causalidad.


Análisis exploratorio: Examina o explorar los datos y encuentra relaciones entre las variables que antes se desconocían. El análisis exploratorio es un tipo de análisis de datos que se utiliza para descubrir nuevas conexiones. Forma hipótesis e impulsa la planificación del diseño y la recolección de datos.

 





Referencias bibliográficas

https://www.explorable.com/es/fiabilidad-de-la-consistencia-interna

https://www.cvc.cervantes.es/enseñanza/biblioteca_ele/diccio_ele/diccionario/

http://investigacionholistica.blogspot.com/

Hueso,A. Cascant, M. (2012). Metodología y Técnicas Cuantitativas de Investigación, Primera edición. Edit: Universidad Politécnica de Valencia.

Taylor SJ, Bogdan. R. Introducción a los Métodos Cualitativos de Investigación. Barcelona: Paidós, 1987.


Técnicas de Análisis

 Técnicas de análisis de datos cualitativos

Las técnicas de análisis de datos cualitativos tienen un papel fundamental en cualquier estudio. Son diversas y, si se combinan adecuadamente, pueden ser muy efectivas. Hoy, el mundo de la investigación las tiene en cuenta para mejorar la eficiencia y para conseguir mejores resultados. 

Te contamos algunas de las principales técnicas que se utilizan actualmente para la extracción y análisis de datos

Para realizar un análisis de datos cualitativos es recomendable realizar los siguientes pasos:

  • Preparación y organización de los datos. Esto puede significar transcribir entrevistas o teclear notas de campo.
  • Reseñar y explorar los datos. Examinar patrones o ideas repetidas que emergen.
  • Desarrollar un sistema de codificación de los datos. Basado en tus ideas iniciales, establece un grupo de códigos que se pueden aplicar para categorizar tus datos.
  • Asignar códigos a los datos. Por ejemplo, en el análisis cualitativo de una encuesta, esto puede significar etiquetar las respuestas de cada uno de los participantes con códigos en una hoja de cálculo. Mientras se recorren los datos, puedes crear nuevos códigos para agregar a tu sistema si es necesario.

Ejemplos de técnicas de análisis de datos cualitativos

La principal característica de un análisis cualitativo es que no se condiciona a los interlocutores. El objetivo de este tipo de estudios es doble. Por una parte, no condicionar el universo del estudio, permitiendo que se diga lo que se piensa sin ataduras. La segunda posibilidad es la de, posteriormente, poder matematizar estas impresiones para realizar estadísticas.

La idea es que, en algunos casos, no se puede reducir una cuestión a números. Para conseguir datos de calidad, en algunos casos, será necesario recurrir a técnicas más indirectas. En consecuencia, es una buena opción si lo que deseas es disponer de más y mejor información.

Hay una serie de ejemplos de técnicas de análisis cualitativas que proporcionan múltiples salidas laborales. Las más importantes son las que siguen:

Entrevistas: Uno de los métodos cualitativos más utilizados son las entrevistas. Cuando se trata de análisis cualitativo, se priorizará que el entrevistado pueda ser espontáneo. Lo importante, en estos casos, es conseguir información veraz. El riesgo de caer en el sesgo de confirmación está siempre ahí y convendrá evitarlo. Este es el motivo por el que se da importancia a la interacción directa y personal.

Eso sí, para conseguir el resultado deseado, conviene que la muestra sea representativa. Por lo tanto, y por muy cualitativa que sea esta técnica, tendrá que apoyarse en análisis cuantitativos.

Encuestas: Las encuestas funcionan con una metodología similar a las entrevistas, pero con dos diferencias de calado. En primer lugar, se renuncia a la interacción personal directa. La segunda cuestión es que se incluye un cuestionario predeterminado.

El cuestionario puede ser más o menos abierto. Esto significa que tendrás que plantear las distintas posibilidades a incluir en las preguntas y respuestas, y definir de qué manera será más eficaz el resultado. 

El resultado es que, aunque pueden ser técnicas cualitativas también, se pierde una cierta espontaneidad. Es aquí donde ganará una importancia decisiva la forma en que se oriente la redacción del cuestionario.

Grupos de discusión: Los grupos de discusión son una técnica muy interesante si se busca la espontaneidad. Para ello, la idea es realizar un debate abierto en el que se puedan defender ideas y conclusiones.

Las premisas imprescindibles para que los grupos den datos fiables son dos. En primer lugar, el moderador ha de saber poner límites y acotar el terreno del debate adecuadamente. La segunda premisa es la de elegir una muestra de forma aleatoria para evitar sesgos. Dicho esto, y bien utilizada, es una técnica que da unos resultados interesantísimos.

Los grupos de discusión se han convertido en una buena técnica de análisis cualitativo que se utiliza a nivel comercial. Aquí la espontaneidad es la protagonista y el ámbito de acotación ha de ser más amplio.

Análisis de contenido: Los análisis de contenido sirven para estudiar un escrito y es una de las variantes de los comentarios de texto. Ahora bien, esto se puede realizar también con grabaciones o con cualquier elemento documental o gráfico.

Esta es una técnica un tanto compleja, pero, cuando se trata de un universo reducido, es muy útil. Una buena idea es realizar una redacción y, posteriormente, hacer un análisis; esto servirá para comprobar pautas y/o comportamientos comunes que, difícilmente, se conseguirían de otra forma.

Esta información es sumamente útil, siempre que se afinen bien las técnicas de análisis. El problema recurrente está, precisamente, en desconocer vías para analizar los materiales. 

Observación: La observación es una técnica que puede resultar conveniente en algunos casos. Y lo mejor de todo es que es relativamente fácil de implementar.

Las observaciones se pueden realizar de varias maneras. En primer lugar, mediante las grabaciones, tanto visuales como de voz. Por otra parte, realizando anotaciones puntuales de determinados hechos o comportamientos, algo común en el reino animal, pero que también se realiza con humanos. La idea es conseguir datos de calidad mediante un método empírico, como la observación directa, que no se podrían obtener de otra forma.

Grupo focal: El comportamiento de un grupo focal sirve para conocer cuál es la actitud de una muestra determinada. 

No es un debate propiamente dicho porque el moderador deja bien claras las preguntas y lo que hace es dirigir la temática. En consecuencia, es una forma de captación de datos, pero mucho menos espontánea que el grupo de discusión. Este es un riesgo recurrente y lo que se busca, en este caso, es reducirlo. No se busca crear una tertulia espontánea, sino que se quiere encaminar la conversación a unos objetivos determinados.

Es relativamente común que haya confusión entre grupo de debate y grupo focal. La principal diferencia es que el primer tipo es más espontáneo. En ambos casos, hay que evitar los sesgos de confirmación para poder obtener unos resultados veraces que nos aporten información real sobre la cuestión de nuestro estudio.

 

 

Técnicas de Análisis de Datos Cuantitativos

 

El análisis de datos cuantitativos es una actividad «planificada, sistemática y progresiva», lo cual es cierto, ya que, al proponer una investigación cuantitativa, se debe explicitar cómo se analizarán los datos, proponiendo un plan o camino metódico u ordenado. Aun cuando ello se pueda ir modificando en el transcurso de la investigación. A diferencia del análisis cualitativo, en donde se recogen, analizan e interpretan los datos en forma concomitante. En las investigaciones cuantitativas la recolección es una etapa distinta y diferenciada del análisis.

Lo anterior significa que cada paso que se da en el análisis cuantitativo responde a una planificación general previa, que obedece al modo característico de razonamiento del positivismo o pos- positivismo. Generalmente, aunque no exclusivamente, los datos que provienen de las encuestas, por ejemplo, son el resultado de una construcción teórica.

Para elegir el tipo de análisis a realizar, resulta indispensable tomar en consideración el objetivo de la investigación. Los tipos de hipótesis planteadas y los niveles de medición de sus variables, así como su naturaleza.

Fases del Análisis Cuantitativos de los Datos

 

Reconocimiento de las variables: Este punto se refiere a tener en cuenta cuestiones como, el reconocimiento de los intereses del investigador. De la manera en que se formularon las hipótesis y por último de las variables o conceptos presentes en las hipótesis.

Una variable es «cualquier característica que varía de una unidad de análisis a otra en una población objeto de estudio o muestra» (Blanch y Joekes, 1997b, 8).  Existen variables categóricas o cualitativas y que se miden de distintas maneras.

 

Variables cualitativas: Son aquellas que expresan características o cualidades, y no pueden ser medidas con números. Pueden ser ordinales o nominales. Ejemplos de variables cualitativas:

  • El color de los ojos de tus amigos.
  •  El estado civil de una persona.

Variable cualitativa nominal: Es aquella que presenta valores no numéricos, y no existe un orden. Ejemplos:

  • El estado civil. Los valores serían: soltero, casado, divorciado, viudo.
  • El lugar de nacimiento de tus amigos. Los valores serían: Lima, Santiago, Buenos Aires, Zagreb, entre otras ciudades.

Variable cualitativa ordinal: Es aquella que presenta valores no numéricos, pero existe un orden. Ejemplos:

  • Las medallas conseguidas en una competencia. Los valores serían: oro, plata, bronce.
  • Grado de satisfacción laboral en una compañía. Los valores serían: muy satisfecho, satisfecho, regular, insatisfecho, muy insatisfecho (mañana mismo renuncio).

Variable cuantitativa: Son aquellas que se expresan mediante un número, por lo tanto, se puede realizar operaciones aritméticas con ellas. Puede ser discretas o continuas. Ejemplos de variables cuantitativas:

  • Peso de una bolsa de café.
  • El número de hijos en una familia.

Variable cuantitativa discreta: Es aquella que puede asumir un número contable de valores. Ejemplos:

  • El número de hijos en las familias. Puede ser 0, 1, 2, 3, 4,...
  • Otro ejemplo sería el número de alumnos en un aula.

Variable cuantitativa continua: Es aquella que puede asumir un número incontable de valores. Ejemplos:

  • La estatura de los habitantes de una ciudad. Existen infinitos valores posibles, un habitante puede medir 1,784596 metros, otro puede medir 1,589641254125 metros y otro puede medir 1,6457843120 metros. Existen infinitos valores posibles, es decir, un número incontable de valores.
  • El ancho de las puertas producidas en una fábrica. Existen infinitos valores posibles. Una puerta medir  95,24513 cm, otra puerta medir 96,41 cm, etc. 

Análisis Estadístico: Una vez que se recogieron los datos, nos encontramos con una gran cantidad de información que es necesario sistematizar y que existen en general tres operaciones fundamentales de clasificación que son: la codificación, la tabulación y el tratamiento estadístico de los datos.

 

Procesamiento y Análisis de los Datos Cuantitativos

 

Luego de codificar, generar la matriz de datos y guardar toda la información en un archivo permanente, el investigador debe procesar la información en un archivo permanente, el investigador debe procesar lis datos.  Una de las formas es utilizando un programa informático, obteniendo tablas y gráficos para su posterior lectura. En el proceso de tabulación, se ubican los datos en tablas para examinar sus características en forma agrupada o clasificada.


Referencias bibliográficas

https://www.explorable.com/es/fiabilidad-de-la-consistencia-interna

https://www.cvc.cervantes.es/enseñanza/biblioteca_ele/diccio_ele/diccionario/

http://investigacionholistica.blogspot.com/

Hueso,A. Cascant, M. (2012). Metodología y Técnicas Cuantitativas de Investigación, Primera edición. Edit: Universidad Politécnica de Valencia.

Taylor SJ, Bogdan. R. Introducción a los Métodos Cualitativos de Investigación. Barcelona: Paidós, 1987.


La Población o unidades de estudio

  No siempre, pero en la mayoría de las situaciones en investigación, sí se realizas el estudio en una muestra. Sólo cuando queremos efectua...