Tamaño de la muestra: problema y matemáticas

Después de leer este artículo, aprenderá sobre el problema y las matemáticas del tamaño de la muestra.

El problema del tamaño de la muestra:

Consideraremos ahora uno de los problemas más difíciles relacionados con el muestreo, a saber, el problema del tamaño de la muestra. "¿Cuál debería ser el tamaño adecuado de la muestra en relación con el tamaño de la población?" "¿Qué tan grande debería ser una muestra?" Son preguntas que los estudiantes de investigación hacen a menudo. Se puede dar una respuesta decisiva a esta pregunta.

Esto se debe a que la pregunta sobre el tamaño solo puede responderse cuando estamos muestreando elementos de la población de tal manera que cada elemento tenga la misma posibilidad de ser incluido en la muestra, es decir, cuando estamos adoptando el diseño de probabilidad de muestreo.

Sólo el diseño de probabilidad hace posible la formulación de planes de muestreo representativos. Por lo tanto, posibilita la formulación de planes de muestreo representativos.

Por lo tanto, la pregunta, “¿qué tan grande debe ser la muestra para ser representativa de la población de un tamaño designado?” Presupone el procedimiento de muestreo probabilístico. Si no se realiza este procedimiento, la representatividad de la muestra, por grande que sea, solo puede ser una cuestión de esperanza y conjetura.

Los conceptos erróneos generales con respecto al tamaño de la muestra es que el tamaño del universo del que se extrae la muestra determina el número de casos necesarios para obtener una muestra adecuada o representativa de ese universo.

Haremos bien en señalar de inmediato que el énfasis no debe ponerse en el número de casos en el universo sino en su número en la muestra.

Las matemáticas del tamaño de la muestra:

La pregunta práctica básica "¿Cómo determinar el tamaño de la muestra que dará el grado de precisión deseado según lo estipulado por el investigador para un estudio determinado?" El problema del muestreo es, por supuesto, el mismo en todos los estudios, es decir, para estimar o predecir algo sobre la población sobre la base del conocimiento de algo sobre la muestra.

El investigador debe saber qué tipo de estadísticas de la muestra servirán para este propósito, por ejemplo, porcentajes, promedios, desviación estándar, etc., para tal estimación. Esto es importante porque diferentes tipos de estadísticas son útiles dependiendo de los grados de precisión deseados en los rendimientos de las muestras, que a su vez son proporcionados por diferentes tamaños de muestra.

Los promedios y porcentajes son las estadísticas más comúnmente deseadas; por lo tanto, trataremos específicamente la cuestión de los tamaños de muestra correspondientes a los grados de precisión deseados con respecto a promedios y porcentajes.

Dado que la muestra tomada por el investigador es solo una de las muchas posibles muestras del universo que podría haber elegido, él necesita saber cuánta confianza puede depositar en la muestra como el representante del "universo" sobre el cual Quiere saber algo o con referencia a lo que desea generalizar.

Necesita saber qué tan grande debe ser la muestra para darle un nivel de precisión satisfactorio. Este cálculo es posible recurriendo a las matemáticas, ya que en el muestreo aleatorio (diseño de muestreo probabilístico) donde cada elemento del universo tiene una probabilidad específica de inclusión en la muestra, la precisión de la predicción o estimación se relaciona con la raíz cuadrada del número de elementos. en la muestra.

Antes de continuar con el cálculo del tamaño requerido de la muestra para un estudio dado, es necesario en la práctica, asegurar cierta información preliminar sobre la población o el universo.

Si el investigador tiene la intención de utilizar la muestra para realizar una estimación de la medida promedio de una característica particular en el universo, debe tener una estimación preliminar de la desviación estándar (dispersión) en la distribución de los valores de los elementos en el universo con respecto a a la característica dada.

El investigador que llega a conocer el rango de valores (la propagación) con respecto a una característica particular en el universo puede obtener una estimación preliminar de la desviación estándar al dividir este rango entre 6, ya que la desviación estándar del universo (finito) puede para todos los propósitos prácticos, debe tomarse alrededor de 1/6 del rango completo de variación.

En otras palabras, el rango de dispersión de una distribución puede considerarse que comprende 6 unidades de desviación estándar. La información preliminar sobre el universo se puede obtener a través de un estudio piloto, resultados de encuestas anteriores, de informes publicados por oficinas de estadísticas, informes de expertos en el campo, etc.

El investigador, antes de proceder a calcular el tamaño de la muestra, debe decidir el nivel esperado de precisión de las estimaciones. Esta expectativa se basa, en su mayor parte, en el propósito del estudio.

En otras palabras, el investigador debe decidir:

(a) Cuánto error en la estimación que se derivará de la muestra (en comparación con el valor verdadero, es decir, el valor del 'universo') puede ser tolerado (llamado margen de error o límite de precisión) y

(b) ¿Con cuánta seguridad se puede decir que la estimación caerá dentro de este margen de error (llamado, nivel de confianza o probabilidad)?

Será apropiado, sin embargo, considerar esto en mayor detalle, actualmente:

(a) Margen de error o límite de precisión:

La pregunta básica aquí es: '¿Cuál es la probabilidad de que el porcentaje o el promedio que se obtenga del estudio de la muestra varíe de la media real (de la población) y que aún se pueda tolerar?' El investigador puede tolerar un error del 5% o puede requerir precisión dentro de un límite del 2%.

Todo depende de qué tan exactamente o exactamente quiere saber ciertos hechos. Supongamos que el investigador desea saber de antemano cuál de los dos candidatos que participan en la elección ganará el escaño. Si la votación va a ser cerrada, el investigador puede permitirse el lujo de tolerar solo un error menor si quiere estar prácticamente seguro.

Él puede, por ejemplo, establecer el error permisible en menos del 2%. Por otro lado, si la elección parece ser unilateral y bastante sesgada a favor de un candidato en particular, el investigador puede predecir los resultados incluso con un error mucho mayor en la estimación.

Si la encuesta por muestreo revela que el 60% de los votos iría a favor de un candidato, se podría tolerar un error de hasta el 9%. En este caso, incluso si el sondeo de la muestra hubiera sacado la muestra más desafortunada que se desvía un 9% del valor verdadero, el valor verdadero aún sería el 51%, es decir, un 1% por encima del 50%, que es el punto crítico.

Por lo tanto, tanto el valor estimado de 60% como el valor verdadero de 51% estarían por encima del punto crítico (es decir, 50%) y la predicción sería confiable.

(b) Nivel de probabilidad o confianza:

Además del límite de precisión, el investigador también debe decidir, con referencia a su estudio, cuánta confianza le gustaría depositar en las estimaciones de la muestra, tan cerca de la estimación real como dentro de los límites de tolerancia o precisión establecidos por Él para el estudio.

En ciertas situaciones, puede querer estar extremadamente seguro de que sus estimaciones (basadas en la muestra) estarán dentro del 51% del valor real, mientras que en otras situaciones, puede estar satisfecho con un grado de seguridad un poco menor.

En la investigación de las ciencias sociales, dos grados de probabilidad o confianza son muy conocidos y de uso frecuente.

Uno de ellos es el nivel de probabilidad de 0.95, es decir, habrá 95 posibilidades de cada 100 de que la estimación de la muestra no exceda los límites de tolerancia o margen de error, y el segundo nivel es el nivel de probabilidad de 0.99, es decir, es probable que en 99 oportunidades de cada 100 la estimación de la muestra no exceda el margen de error apuntado.

El nivel de confianza puede incluso establecerse en 0.999, es decir, la estimación de la muestra no se desviaría del valor verdadero (del universo) más allá de los límites de tolerancia en 999 posibilidades de 1000. Para ciertos propósitos, el investigador puede apuntar bajo y establezca el nivel de probabilidad en 0, 67 (es decir, 2 de 3).

Las posibilidades de que una muestra en particular extraída para un estudio arroje una estimación del universo que se encuentra dentro del margen de error, dependen de la variación entre las muestras que pueden extraerse del universo. Si los valores asegurados de las muestras tienden a desviarse considerablemente del valor real, entonces las posibilidades de que un valor de muestra determinado se mantenga dentro de los límites permisibles de error son escasas.

El error estándar es la medida que nos dice cuáles son las posibilidades de que una muestra permanezca dentro de los límites permisibles. Es una medida de la variación en la estimación de muestreo que podría esperarse en un muestreo aleatorio. Las muestras aleatorias tienden a seguir las leyes de la probabilidad y las estimaciones de la muestra tienden a agruparse en torno al verdadero valor del universo.

Estas estimaciones pueden representarse mediante una curva en forma de campana o normal. El punto medio de esta curva representa el valor verdadero (del universo) y la variación o desviación máxima de una estimación aleatoria de la muestra de este valor verdadero es aproximadamente tres veces el error estándar.

El error estándar es, por lo tanto, aproximadamente 1/6 del rango completo de variación de muestreo aleatorio. Para todos los propósitos prácticos, sin embargo, el error estándar se toma como 1/4 del rango de variación, ya que las variaciones extremas ocurren muy raramente.

Las tablas de probabilidad muestran que se puede esperar que 95 de cada 100 estimaciones de muestra caigan dentro del límite de errores estándar +2 y -2. Esto significa que si hemos establecido nuestro nivel de confianza o probabilidad en 0.95, nuestro problema será obtener una muestra aleatoria con un error estándar que sea aproximadamente la mitad (la mitad) de nuestro margen de error.

Para un nivel más alto de probabilidad, tendríamos que extraer una muestra con un error estándar, que es una fracción aún menor del margen de error.

Se debe tener en cuenta que el error estándar se hace más pequeño (mayor precisión) a medida que las muestras se hacen más grandes. Para duplicar la precisión, el tamaño de la muestra debe multiplicarse por 4, es decir, aumentar cuatro veces; para triplicarlo, el tamaño de la muestra debe multiplicarse por 9; cuadruplicarlo, por 16 y así sucesivamente.

Esto solo significa que la precisión aumenta a medida que la raíz cuadrada del número de casos en la muestra. Los estadísticos han preparado tablas que muestran la probabilidad de que las estimaciones de la muestra se encuentren dentro de los diversos límites de error estándar.

Estos límites generalmente se expresan como + (más) y - (menos). Tales tablas muestran fácilmente, por ejemplo, que el 95% de las estimaciones de la muestra aleatoria se encuentran dentro del límite de los errores estándar de +1.96 y -1.96, aproximadamente el 68% de las estimaciones se encuentran dentro de los límites del error estándar de + 1 y -1 y el 99% de las estimaciones se encuentran dentro del rango de +2.57 y -2.57 errores estándar, y así sucesivamente.

Considerando completamente (1) el margen de error y (2) el nivel de probabilidad o confianza, el investigador puede proceder al cálculo del tamaño de muestra deseado. Mildred Parten ha dado la siguiente fórmula para calcular el tamaño de la muestra, cuando la estadística a estimar es el porcentaje. Esto es obviamente una variación transpuesta de una fórmula de error estándar.

Tamaño de la muestra = PC (100-PC) Z 2 / T 2

En la fórmula anterior, PC significa la estimación preliminar del porcentaje (del universo).

Z significa el número de unidades de error estándar que se encuentran (de la tabla de probabilidad normal) que corresponden al nivel de probabilidad requerido.

T significa el margen de error que puede ser tolerado (5% o 2%).

Parten ha dado la siguiente fórmula para calcular el tamaño de la muestra para predecir o estimar el valor medio del universo con respecto a una característica específica a un cierto nivel de confianza y apuntado a un margen o error dado o un límite de tolerancia.

Tamaño de la muestra = (δ + Z / T) 2

Donde 8 representa la estimación preliminar de la desviación estándar del universo.

Z representa el número de unidades de error estándar correspondientes al nivel de probabilidad o confianza requerido.

Tomemos un ejemplo concreto y resolvamos el tamaño de la muestra. Supongamos que deseamos estimar el ingreso promedio anual de las familias que habitan en una determinada localidad de "clase media" de una ciudad.

Digamos que hemos establecido nuestro margen de error en Rs.100 / -, es decir, toleraremos la estimación de la muestra dentro de más o menos 100 de la media real de la población con respecto al ingreso. Supongamos que hemos establecido el nivel de probabilidad o confianza en 0, 95.

Supongamos también que a partir de una encuesta realizada hace unos años, estimamos que la desviación estándar con respecto al ingreso anual de la población (localidad) es de Rs.500 / -. El valor de Z, es decir, las unidades de error estándar correspondientes a la probabilidad de 0.95 es 1.96.

Sustituyendo estos valores en la fórmula dada anteriormente, tenemos

Tamaño de la simple = (500 × 1.96 / 100) 2

= (9.8) 2

= 95

Esto significa que una muestra aleatoria de 95 casos (familias, que son las unidades de muestra) debe proporcionarnos una estimación de la media del "universo" dado dentro del margen de error establecido y con el nivel de confianza o probabilidad deseado, respectivamente, de Rs. 100 / - y 0.95.

Si ajustamos el margen de error y lo fijamos en Rs. 50 / -, el número de casos en la muestra, es decir, el tamaño requerido de la muestra será cuatro veces más grande (es decir, 380) que el tamaño requerido para el margen de error anterior (Rs. 100 / -).

Si otra localidad se caracteriza por una mayor homogeneidad con respecto a los ingresos y suponga, por lo tanto, que la desviación estándar en términos de ingresos es solo de 100, el tamaño de la muestra para el margen de error anterior será mucho menor.

En otras palabras, el uso de la fórmula ilustra la lección, es decir, cuanto mayor es la homogeneidad, más pequeña es la muestra requerida y mayor es la precisión aspirada, mayor es el tamaño de la muestra necesaria.

El uso repetido de términos tales como el margen de error y el nivel de confianza y otras expresiones numéricas de probabilidades y tamaños de muestra, puede tender a crear la impresión de que un tamaño de muestra calculado por una fórmula garantizará una precisión deseada.

Sin embargo, debe recordarse que las relaciones mostradas en las tablas estadísticas de probabilidad representan expectativas normales en un muestreo aleatorio ideal. Pero en la medida en que el muestreo real rara vez es ideal, no se puede esperar que las relaciones expresadas en tablas se mantengan.

La dificultad general y la rareza del muestreo ideal deberían ser comprensiblemente escépticos acerca de los resultados que están exactamente de acuerdo con las expectativas.

Sin embargo, esto no significa que el investigador no deba usar o preferir el tamaño de muestra exacto calculado sobre la base de la fórmula de probabilidad. De hecho, esto es precisamente lo que debe hacer porque es su mejor apuesta. Sin embargo, no debe insistir en este tamaño exacto si las consideraciones prácticas lo hacen inoportuno.

Un enfoque sustancialmente diferente al problema de determinar el tamaño de muestra deseado es la "prueba de estabilidad". Consiste en recopilar datos para submuestras relativamente pequeñas y mantener un registro continuo de la distribución de las devoluciones.

Cuando después de un punto, la adición de más sub-muestra no cambia los resultados significativamente, el investigador puede asumir que la muestra total extraída hasta ahora se ha vuelto adecuada, en cuanto a tamaño. Pero este procedimiento bien puede considerarse como una pérdida de tiempo porque equivale a un investigador que participa en una serie de encuestas separadas que se extienden durante un período de tiempo considerable.

Se ha argumentado que este procedimiento no es económico, ya que se recopilan más cronogramas de los que realmente se necesitan, ya que la reducción hasta el punto de estabilidad aproximada no se puede ubicar con ninguna certeza hasta que la curva haya mantenido su nivel durante un tiempo.

Pero esto no parece ser una limitación seria en comparación con la práctica conservadora de muchos estudios acreditados que recopilan más del número necesario / mínimo de elementos como muestra.

La principal ventaja de este tipo de prueba de estabilidad es que, en lugar de depender de cálculos basados ​​en información preliminar, uno simplemente aumenta la unidad de tamaño de muestra general, se observa que es suficiente. El control empírico de observar los retornos y detenerse cuando se estabilizan parece sencillo y convincente.

El principal peligro de este procedimiento reside en el hecho de que es probable que las submuestras sucesivas recopiladas no se extiendan por todo el universo. Los resultados pueden estabilizarse aunque no representen a la población.

De hecho, cuanto menos representativa sea la sub-muestra, más probable es que se agreguen más casos para obtener el mismo resultado y arrojar la apariencia de estabilización. A menos que la sub-muestra sea una sección transversal del universo, no habrá una muestra supersensible sobre la cual observar la estabilización que se aproxima.

El requisito básico de este procedimiento es que una muestra representativa en crecimiento debe estar disponible para observación. Los gastos y la dificultad de recopilar submuestras sucesivas que se extienden por el universo son las razones principales por las que no es probable que esto sea representativo.

Sin embargo, la prueba de estabilidad empírica puede ser muy efectiva cuando las submuestras se extraen y se recolectan correctamente. El método es más apropiado para las encuestas de entrevista que cubren áreas o comunidades relativamente pequeñas, como una ciudad o una ciudad, porque entonces, no es tan difícil ni costoso hacer que cada sub-muestra sea una muestra aleatoria de la población.

Una forma más refinada de control empírico en comparación con la prueba de estabilidad es un desarrollo relativamente reciente llamado Análisis secuencial. El procedimiento general involucrado, aquí, es seguir agregando a la muestra y al mismo tiempo seguir probando la importancia de la muestra hasta que se acumule la muestra mínima que proporcionará el nivel de importancia requerido.