Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Estandarización de consumo de aluminio líquido con alto porcentaje de hierro en los ánodos envarillados (página 2)



Partes: 1, 2, 3

Son las cantidades permisibles para fabricar o vender una unidad de producto o servicio. Aunque muchos supervisores identifican estos estándares como pautas, o lo que es permitido gastar, el uso más importante de estos esta en la planificación de la utilización de la mano de obra, materiales y maquinarias. El supervisor que este familiarizado con la composición de los estándares básicos, puede utilizar esta como herramienta efectiva para controlar gastos.

3.3.2 Tipos de estándares

  • Estándares de materiales.

  • Estándares de producción.

  • Estándares de gastos.

Los Estándares de tiempo de equipos y los Estándares de mano de obra están comprendidos bajo el título general de los Estándares de producción.

La gerencia de Producción es responsable del desarrollo, expresión, presentación y mantenimiento de los Estándares básicos.

Esta responsabilidad ha sido delegada a Ingeniería Industrial. La instalación o revisión de los Estándares Básicos debe estar de acuerdo con los principios especificados en el manual de Estándares.

Un sistema de Costos Estándar realísticos, contiene Estándares Básicos que pueden ser razonablemente asequibles. Los Estándares son fijados a niveles que puedan ser razonablemente logrados bajo condiciones especificas, utilizando los hombres, materiales, máquinas disponibles y empleando los mejores métodos.

3.3.3 Consideraciones asociadas con el desarrollo de los estándares básicos

Los Estándares Básicos deben ser razonablemente asequibles, pero a la vez ofrecer cierto reto. Los estándares muy flojos pueden ser logrados muy fácilmente, pero hacer esto no da ninguna satisfacción. Tales estándares pueden contribuir a altos costos y bajas ganancias. Por otra parte, los

estándares ceñidos no se pueden lograr y pronto o existirá ningún aliciente para alcanzarlos. Tales estándares pueden causar desaliento y llevar a una disminución del esfuerzo para lograrlos. Para la Gerencia, los Estándares ceñidos son engañosos en términos de lo que razonablemente ésta puede esperar. Por lo tanto, el problema es desarrollar estándares de manera que no sean ni muy flojos ni muy ceñidos, sino adecuados.

Los Tres tipos de estándares básicos incluyen problemas que hacen que su desarrollo este lejos de ser simple o rutinario, y esto es particularmente cierto para los estándares de producción. Para dar una idea de porque los estándares de producción son difíciles de desarrollar, se exploran a continuación y brevemente algunos de los problemas involucrados.

Para ser confiables, los estándares de producción deben incluir los efectos de las diversas condiciones de operación que influyen en la producción. Por ejemplo, si se requiere mas tiempo para producir el producto A que para producir el producto B, se debe establecer un estándar separado para cada producto. Debe haber un estándar de producción específico para cada factor reconocible que influya en el tiempo de producción.

Los tres factores principales que influyen en los tiempos de producción son: (1) las características del material directo, (2) las variaciones de productos, (3) las limitaciones de los equipos. Cada uno de estos factores puede complicar el problema de desarrollar estándares de producción perfectos.

  • 1. Características del material directo. Las variaciones en las .características del material directo pueden influir en las horas-equipo u horas-hombre necesarias para su conversión a productos de primera. Esto ocurre hasta el extremo de que hay que desarrollar separadamente relaciones de estándares de producción, para las diversas condiciones de materiales directos que se encuentren. Por ejemplo, el tiempo de fusión de los hornos varía según el tipo de carga. Una carga con alto contenido de metal y bajo contenido de chatarra, requerirá menos tiempo de fusión que la condición contraria. Sin embargo, existen muchos casos en los cuales las condiciones del material directo no son representadas por varios estándares de producción separados, debido a lo impractico de desarrollar un estándar para cada uno de las posibilidades.

  • 2. Variaciones en las especificaciones de productos. Las variaciones en los tipos de productos y en las especificaciones de productos influyen ampliamente en los tiempos de producción. Por ejemplo, ciertos requerimientos metalúrgicos necesitan más tiempo de fusión que otros. También se requiere menos tiempo de laminación para tolerancias estándar que para otras tolerancias más ceñidas. Cuando quiera que las especificaciones afecten los tiempos de producción habrá que desarrollar estándares de producción separados.

  • 3. Limitaciones de los equipos. Las limitaciones inherentes al diseño de los equipos, también afectan el tiempo de equipo necesario para producir una cantidad de un producto especificado. En consecuencia, los estándares de producción deben tomar en cuenta tales limitaciones de los equipos. Los estándares de producción aplicables a un tipo de laminador pueden no ser aplicables a otro laminador de diferente capacidad. Entonces, cada laminador requerirá de un estándar de producción separado para cada una de las variaciones de producción.

3.3.4 Estándares de Material

Los estándares de materiales indican las cantidades de material directo permisibles y de productos secundarios recuperables, en la producción de una unidad de producto. Estos estándares generalmente son expresados en términos de kilogramos o toneladas de material necesarios, para obtener un kilogramo o tonelada de producto de primera, y kilogramos o toneladas de material recuperables, por kilogramo o tonelada de producto de primera producido.

Gráficamente, /a representación del material directo y de los renglones producidos se vería así:

Total Material Directo

Productos de Primera

Productos Secundarios

Pérdidas Imponderables

Tabla 3.3.4.1 Material directo

Conociendo la relación de la cantidad estándar de material a cargar necesaria para producir una cantidad dada de productos de primera, un supervisor puede planificar sus necesidades de materiales. También puede obtener la máxima cantidad de productos de primera y evitar perdidas de material a cargar.

3.3.5 Rendimientos

Los estándares de materiales, pueden ser usados también para desarrollar datos que son importantes para informar al supervisor de su desempeño en el control de costos. Los rendimientos, que muestran la relación porcentual de la cantidad de producto de primera con respecto a la cantidad de material directo cargado, pueden ser calculados tanto para los estándares permisibles como para las cantidades reales usadas.

El Rendimiento Estándar para cada producto se obtiene de los estándares de material directo. También puede ser calculado dividiendo el producto de primera entre el material directo estándar que debió ser usado. La ecuación para el rendimiento estándar es:

Monografias.comMonografias.com

El Rendimiento Real se calcula para mostrar la relación del producto de primera con respecto al material directo real. Esta, entonces, es la ecuación para calcular el rendimiento real:

 

Monografias.comMonografias.com

Desempeño de Rendimiento con los dos cálculos desarrollados, se puede obtener la medida del desempeño del material. Esta medida se denomina desempeño de rendimiento y se calcula aplicando la siguiente ecuación:

 

Monografias.comMonografias.com

El Desempeño de Rendimiento es simplemente un indicador de control ejercido sobre los materiales a cargar. Si se usaran cantidades menores que las cantidades estándar: el Rendimiento Real sería mayor que el Rendimiento Estándar y el Desempeño de Rendimiento estaría sobre el 100%. A la inversa, si se usara más material que el indicado por el estándar, el Rendimiento Real sería menor que el Rendimiento Estándar y el Desempeño de Rendimiento estaría por debajo del 100%. Un Desempeño de Rendimiento por debajo del 100% normalmente indicará la posibilidad de ineficiencia y desperdicio de materiales.

Sería impráctico calcular los rendimientos después de la producción de cada tonelada de producto. Debido a esto, los rendimientos estándar y reales y el desempeño del rendimiento, son calculados periódicamente para la producción total de un Centro de Costos, así como también para grupos específicos de productos que hacen el total de la producción. El Rendimiento (Presupuesto) Estándar se calcula como un auxiliar al desarrollo del presupuesto de materiales.

3.3.6 Métodos existentes para la determinación de los estándares

  • Método de Ingeniería

  • Método de Datos Históricos

  • Método de Estimación

  • Métodos Estadísticos

El Método de Ingeniería se utiliza para establecer y retinar los Estándares Básicos siempre que sea práctico.

El Método de Datos Históricos es utilizado en algunos casos; particularmente para ciertos estándares de gastos de producción que involucran gastos por renglones tales como herramientas y suministros.

El Método de Estimaciones se basa en el conocimiento de personas con experiencia de la Gerencia de Producción, Ingeniería y Contabilidad.

3.4 ESTADÍSTICA

El propósito de un estudio estadístico suele ser, extraer conclusiones acerca de la naturaleza de una población. Al ser la población grande y no poder ser estudiada en su integridad en la mayoría de los casos, las conclusiones obtenidas

deben basarse en el examen de solamente una parte de ésta, lo que nos lleva, en primer lugar a la justificación, necesidad y definición de las diferentes técnicas de muestreo.

Dentro de este contexto, será necesario asumir un estadístico o estimador como una variable aleatoria con una determinada distribución, y que será la pieza clave en las dos amplias categorías de la inferencia estadística: la estimación y el contraste de hipótesis.

El concepto de estimador, como herramienta fundamental, lo caracterizamos mediante una serie de propiedades que nos servirán para elegir el "mejor" para un determinado parámetro de una población, así como algunos métodos para la obtención de ellos, tanto en la estimación puntual como por intervalos.

¿Cómo deducir la ley de probabilidad sobre determinado carácter de una población cuando sólo conocemos una muestra?

Este es un problema al que nos enfrentamos cuando por ejemplo tratamos de estudiar la relación entre el fumar y el cáncer de pulmón e intentamos extender las conclusiones obtenidas sobre una muestra al resto de individuos de la población.

La tarea fundamental de la estadística inferencial, es hacer inferencias acerca de la población a partir de una muestra extraída de la misma.

En la investigación científica es habitual que se empleen muestras como medio de acercarse al conocimiento de la realidad. Sin embargo, para que a través de las muestras sea posible reproducir el universo con la precisión que se requiera en cada caso es necesario que el diseño muestral se atenga a los principios recogidos en las técnicas de muestreo.

Antes de pasar describir algunos de los métodos de muestreo más habituales introduzcamos algunos conceptos importantes en este contexto:

Población: Es todo conjunto de elementos, finito o infinito, definido por una o más características, de las que gozan todos los elementos que lo componen, y sólo ellos.

En muestreo se entiende por población a la totalidad del universo que interesa considerar, y que es necesario que esté bien definido para que se sepa en todo momento que elementos lo componen.

Censo: En ocasiones resulta posible estudiar cada uno de los elementos que componen la población, realizándose lo que se denomina un censo, es decir, el estudio de todos los elementos que componen la población.

La realización de un censo no siempre es posible, por diferentes motivos: a) economía: el estudio de todos los elementos que componen una población, sobre todo si esta es grande, suele ser un problema costoso en tiempo, dinero, etc.; b)

que las pruebas a las que hay que someter a los sujetos sean destructivas; c) que la población sea infinita o tan grande que exceda las posibilidades del investigador.

Si la numeración de elementos, se realiza sobre la población accesible o estudiada, y no sobre la población teórica, entonces el proceso recibe el nombre de marco o espacio muestral.

Muestra: En todas las ocasiones en que no es posible o conveniente realizar un censo, lo que hacemos es trabajar con una muestra, entendiendo por tal una parte representativa de la población. Para que una muestra sea representativa, y por lo tanto útil, debe de reflejar las similitudes y diferencias encontradas en la población, ejemplificar las características de la misma. Cuando decimos que una muestra es representativa indicamos que reúne aproximadamente las características de la población que son importantes para la investigación.

3.4.1 Población y muestra

Una población está determinada por sus características definitorias. Por lo tanto, el conjunto de elementos que posea esta característica se denomina población o universo. Población es la totalidad del fenómeno a estudiar, donde las unidades de población poseen una característica común, la que se estudia y da origen a los datos de la investigación.

Entonces, una población es el conjunto de todas las cosas que concuerdan con una serie determinada de especificaciones. Un censo, por ejemplo, es el recuento de todos los elementos de una población.

Cuando seleccionamos algunos elementos con la intención de averiguar algo sobre una población determinada, nos referimos a este grupo de elementos como muestra. Por supuesto, esperamos que lo que averiguamos en la muestra sea cierto para la población en su conjunto. La exactitud de la información recolectada depende en gran manera de la forma en que fue seleccionada la muestra. Cuando no es posible medir cada uno de los individuos de una población, se toma una muestra representativa de la misma.

La muestra descansa en el principio de que las partes representan al todo y, por tal, refleja las características que definen la población de la que fue extraída lo cual nos indica que es representativa. Por lo tanto, la validez de la generalización depende de la validez y tamaño de la muestra.

3.4.2 Leyes del método de muestreo

El método de muestreo se basa en ciertas leyes que le otorgan su fundamento científico, las cuales son:

  • Ley de los grandes números: si en una prueba, la probabilidad de un acontecimiento o suceso es P, y si éste se repite una gran cantidad de veces, la relación entre las veces que se produce el suceso y la cantidad total de pruebas (es decir, la frecuencia F del suceso) tiende a acercarse cada vez más a la probabilidad P.

  • Cálculo de probabilidades: La probabilidad de un hecho o suceso es la relación entre el número de casos favorables (p) a este hecho con la cantidad

de casos posibles, suponiendo que todos los casos son igualmente posibles. El método de establecer la probabilidad es lo que se denomina cálculo de probabilidad.

De estas dos leyes fundamentales de la estadística, se infieren aquellas que sirven de base más directamente al método de muestreo:

  • Ley de la regularidad estadística: un conjunto de n unidades tomadas al azar de un conjunto N, es casi seguro que tenga las características del grupo más grande.

  • Ley de la inercia de los grandes números: esta ley es contraria a la anterior. Se refiere al hecho de que en la mayoría de los fenómenos, cuando una parte varía en una dirección, es probable que una parte igual del mismo grupo, varíe en dirección opuesta.

  • Ley de la permanencia de los números pequeños: si una muestra suficientemente grande es representativa de la población, una segunda muestra de igual magnitud deberá ser semejante a la primera; y, si en la primera muestra se encuentran pocos individuos con características raras, es de esperar encontrar igual proporción en la segunda muestra.

3.4.5 Métodos de muestreo probabilístico

Los métodos de muestreo probabilístico son aquellos que se basan en el principio de equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos para formar parte de una muestra

y, consiguientemente, todas las posibles muestras de tamaño n tienen la misma probabilidad de ser elegidas. Sólo estos métodos de muestreo probabilístico nos aseguran la representatividad de la muestra extraída y son, por tanto, los más recomendables. Dentro de los métodos de muestreo probabilístico encontramos los siguientes tipos:

Muestreo aleatorio simple: El procedimiento empleado es el siguiente: 1) se asigna un número a cada individuo de la población y 2) a través de algún medio mecánico (bolas dentro de una bolsa, tablas de números aleatorios, números aleatorios generados con una calculadora u ordenador, etc.) se eligen tantos sujetos como sea necesario para completar el tamaño de muestra requerido.

Este procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica cuando la población que estamos manejando es muy grande.

Muestreo aleatorio sistemático: Este procedimiento exige, como el anterior, numerar todos los elementos de la población, pero en lugar de extraer n números aleatorios sólo i se extrae uno. Se parte de ese número aleatorio i, que es un número elegido al azar, y los elementos que integran la muestra son los que ocupan los lugares i, i+k, i+2k, |i+3k,…,i+(n-1)k, es decir se toman los individuos de k en k, siendo k el resultado de dividir el tamaño de la población entre el tamaño de la muestra: k=N/n. El número i que: empleamos como punto de partida será un número al azar entre 1 y k.

El riesgo de este tipo de muestreo está en los casos en que se dan periodicidades en la población ya que al elegir a los miembros de la muestra con

una periodicidad constante (k) podemos introducir una homogeneidad que no se da en la población. Imaginemos que estamos seleccionando una muestra sobre listas de 10 individuos en los que los 5 primeros son varones y los 5 últimos mujeres, si empleamos un muestreo aleatorio sistemático con k=10 siempre seleccionaríamos o sólo hombres o sólo mujeres, no podría haber una representación de los dos sexos.

Muestreo aleatorio estratificado: Trata de obviar las dificultades que presentan los anteriores ya que simplifican los procesos y suelen reducir el error muestral para un tamaño dado de la muestra. Consiste en considerar categorías típicas diferentes entre sí (estratos) que poseen gran homogeneidad respecto a alguna característica (se puede estratificar, por ejemplo, según la profesión, el municipio de residencia, el sexo, el estado civil, etc). Lo que se pretende con este tipo de muestreo es asegurarse de que todos los estratos de interés estarán representados adecuadamente en la muestra. Cada estrato funciona independientemente, pudiendo aplicarse dentro de ellos el muestreo aleatorio simple o el estratificado para elegir los elementos concretos que formarán parte de la muestra.

En ocasiones las dificultades que plantean son demasiado grandes, pues exige un conocimiento detallado de la población. (Tamaño geográfico, sexos, edades,…).

La distribución de la muestra en función de los diferentes estratos se denomina afijación, y puede ser de diferentes tipos:

Afijación Simple: A cada estrato le corresponde igual número de elementos muéstrales.

Afijación Proporcional: La distribución se hace de acuerdo con el peso (tamaño) de la población en cada estrato.

Afijación Óptima: Se tiene en cuenta la previsible dispersión de los resultados, de modo que se considera la proporción y la desviación típica. Tiene poca aplicación ya que no Desuele conocer la desviación.

Muestreo aleatorio por conglomerados: Los métodos presentados hasta ahora están pensados para seleccionar directamente los elementos de la población, es decir, que las unidades muéstrales son los elementos de la población. En el muestreo por Conglomerados la unidad muestral es un grupo de elementos de la población que forman una unidad, a la que llamamos conglomerado. Las unidades hospitalarias, los departamentos universitarios, una caja de determinado producto, etc., son Conglomerados naturales. En otras ocasiones se pueden utilizar conglomerados no naturales como, por ejemplo, las urnas electorales. Cuando los conglomerados son áreas geográficas suele hablarse de "muestreo por áreas".

El muestreo por conglomerados consiste en seleccionar aleatoriamente un cierto numero de conglomerados (el necesario para alcanzar el tamaño muestral establecido) en investigar después todos los elementos pertenecientes a los conglomerados elegidos.

Para finalizar con esta exposición de los métodos de muestreo probabilístico es necesario comentar que ante lo compleja que puede llegar a ser la situación real de muestreo con la que nos enfrentemos es muy común emplear lo que se denomina muestreo polietápico. Este tipo de muestreo se caracteriza por operar en sucesivas etapas, empleando en cada una de ellas el método de muestreo probabilístico más adecuado.

3.4.6 Muestreo por Rutas Aleatorias

  • La selección de los miembros de la muestra se realiza como parte del trabajo de campo.

  • Establecida un área de muestreo, se define un punto de partida, sobre el que se aplica una ruta predefinida en la que se van seleccionan-do los miembros de la muestra con arreglo a un procedimiento heurístico.

  • Busca asegurar una cobertura geográfica de la muestra y/o suplir la falta de censo.

  • No es aconsejable en planos no lineales o poco homogéneos en manzanas y edificación.

3.4.7 Métodos de muestreo no probabilístico

A veces, para estudios exploratorios, el muestreo probabilístico resulta excesivamente costoso y se acude a métodos no probabilístico, aun siendo conscientes de que no sirven para realizar generalizaciones, pues no sirven para

realizar generalizaciones, pues no se tiene certeza de que la muestra extraída sea representativa, ya que no todos los sujetos de la población tienen la misma probabilidad de ser elegidos. En general se seleccionan a los sujetos siguiendo determinados criterios procurando que la muestra sea representativa.

Muestreo por cuotas: También denominado en ocasiones "accidental". Se asienta generalmente sobre la base de un buen conocimiento de los estratos de la población y/o de los individuos más "representativos" o "adecuados" para los fines de la investigación. Mantiene, por tanto, semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter de aleatoriedad de aquél.

En este tipo de muestreo se fijan unas "cuotas," que consisten en un número de individuos que reúnen unas determinadas condiciones, por ejemplo: 20 individuos de 25 a 40 años, de sexo femenino y residentes en Gijón. Una vez determinada la cuota se eligen los primeros que se encuentren que cumplan esas características. Este método se utiliza mucho en las encuestas de opinión.

Muestreo opinático o intencional: Este tipo de muestreo se caracteriza por un esfuerzo deliberado de obtener muestras "representativas" mediante la inclusión en la muestra de grupos supuestamente típicos. Es muy frecuente su utilización en sondeos electorales de zonas que en anteriores votaciones han marcado tendencias de voto.

Muestreo casual o incidental: Se trata de un proceso en el que el investigador selecciona directa e intencionadamente los individuos de la población. El caso más frecuente de este procedimiento el utilizar como muestra los individuos a los que se tiene fácil acceso (los profesores de universidad emplean con mucha frecuencia a sus propios alumnos). Un caso particular es el de los voluntarios.

Bola de nieve: Se localiza a algunos individuos, los cuales conducen a otros, y estos a y así hasta conseguir una muestra suficiente. Este tipo se emplea muy frecuentemente cuando se hacen estudios con poblaciones "marginales", delincuentes, sectas; determinados tipos de enfermos, etc.

3.4.8 Muestreo Discrecional

  • A criterio del investigador los elementos son elegidos sobre lo que él cree que pueden aportar al estudio.

  • Ej.: muestreo perjuicios; cajeros de un banco o un supermercado; etc.

3.4.9 Calculo del tamaño de la muestra

Ahora de determinar el tamaño que debe alcanzar una muestra hay que tomar en cuenta varios factores: el tipo de muestreo, el parámetro a estimar, el error muestral admisible, la varianza poblacional y el nivel de confianza.

Por ello antes de presentar unos casos sencillos de cálculo del tamaño muestral delimitemos estos factores.

En alguna etapa del diseño de la encuesta, alguien debe tomar una decisión acerca del tamaño de la muestra que será seleccionada de la población. Las implicaciones de tal decisión son obvias. Las observaciones cuestan dinero. Por lo tanto si la muestra es grande, tiempo y talento son desperdiciados. Por el contrario, si el número de observaciones incluidas en la muestra es muy pequeño, compramos información inadecuada por el tiempo y esfuerzo empleado y nuevamente hemos hecho un mal gasto.

El numero de observaciones necesarias para estimar una media poblacional con un límite para el error de estimación de magnitud B se encuentra al establecer dos desviaciones estándar del estimador,

igual a B y resolviendo esta expresión para n.

Esto es, debemos resolver

Monografias.com

Monografias.comEn una situación práctica la solución para n presenta un problema debido a que la varianza poblacional s2 es desconocida. Puesto que la varianza muestral s2 frecuentemente se encuentra disponible de un experimento anterior, podemos obtener un tamaño de muestra aproximado al reemplazar s2 por s2 en la Ecuación

 

(5). Si N es grande, como comúnmente ocurre, el (N – 1) puede ser reemplazado por N en el dominador de la Ecuación (5).

3.4.10 Técnicas de muestreo sobre una población

La teoría del muestreo tiene por objetivo, el estudio de las relaciones existentes entre la distribución de un carácter en dicha población y las distribuciones de dicho carácter en todas sus muestras. Las ventajas de estudiar una población a partir de sus muestras son principalmente:

Coste reducido: Si los datos que buscamos los podemos obtener a partir de una pequeña parte del total de la población, los gastos de recogida y tratamiento de los datos serán menores. Por ejemplo, cuando se realizan encuestas previas a un referéndum, es más barato preguntar a 4.000 personas su intención de voto, que a 30.000.000;

Mayor rapidez: Estamos acostumbrados a ver cómo con los resultados del escrutinio de las primeras mesas electorales, se obtiene una aproximación bastante buena del resultado final de unas elecciones, muchas horas antes de que el recuento final de votos haya finalizado.

Más posibilidades: Para hacer cierto tipo de estudios, por ejemplo el de duración de cierto tipo de bombillas, no es posible en la práctica destruirlas todas para conocer su vida media, ya que no quedaría nada que vender. Es mejor destruir sólo una pequeña parte de ellas y sacar conclusiones sobre las demás.

De este modo se ve que al hacer estadística inferencial debemos enfrentarnos con dos problemas:

  • Elección de la muestra (muestreo), que es a lo que nos dedicaremos en este capítulo.

  • Extrapolación de las conclusiones obtenidas sobre la muestra, al resto de la población (inferencia).

El tipo de muestreo más importante es el muestreo aleatorio, en el que todos los elementos de la población tienen la misma probabilidad de ser extraídos; Aunque dependiendo del problema y con el objetivo de reducir los costes o aumentar la precisión, otros tipos de muestreo pueden ser considerados como veremos más adelante: muestreo sistemático, estratificado y por conglomerados.

3.4.11 Medidas de tendencia central y dispersión de v.a.

De forma análoga podemos definir para variables aleatorias medidas de centralización, dispersión, simetría y forma. Por su interés nos vamos a centrar en dos medidas sobre v.a. que son la esperanza matemática que desempeña un papel

equivalente al de la media y el momento central de segundo orden, también denominado varianza.

Media, número calculado mediante determinadas operaciones utilizando todos los elementos de un conjunto y que sirve para representar a éste. La media puede recibir distintos nombres según las operaciones realizadas para calcularla: media aritmética, media geométrica, media armónica, entre otras.

Mediana, en estadística, una de las cantidades utilizadas para representar un conjunto de números. Colocando todos los valores en orden creciente o decreciente, la mediana es aquél que ocupa la posición central.

Moda, valor que aparece con más frecuencia en un conjunto dado de números. Por ejemplo, en el conjunto {3, 4, 5, 6, 6, 7, 10,13} la moda es 6. Si son dos los números que se repiten con la misma frecuencia, el conjunto tiene dos modas. Otros conjuntos no tienen moda.

Desviación estándar, número que representa el alejamiento de una serie de números de su valor medio. Se calcula a partir de todas las desviaciones individuales con respecto de la media. Es un concepto importante en la mayoría de los cálculos estadísticos porque es una indicación precisa de la variabilidad entre un grupo de números.

3.4.12 Realización de las observaciones

Las observaciones se deben distribuir en forma aleatoria para que sean representativas. Un método aplicable es la tabla de números aleatorios, la cual permite establecer el tiempo en que deben hacerse las observaciones, el orden para observar al operario o el lugar donde debe hacerse la observación.

El uso de la tabla de número aleatorios dependerá del criterio del analista de métodos. Él decidirá cómo usarla y que secuencia de valores tomar. Así mismo, es él quien decidirá que números deben tomarse al establecer la hora, los minutos o el tiempo en que se llevarán a cabo las observaciones.

3.4.13 La observación

Se utiliza para recolectar los datos necesarios para un estudio. La observación es un método clásico de investigación científica; además, es la manera básica por medio de la cual obtenemos información acerca del mundo que nos rodea.

Principios básicos para realizar una observación:

  • 1. Debe tener un propósito específico.

  • 2. Debe ser planeada cuidadosa y sistemáticamente.

  • 3. Debe llevarse, por escrito, un control cuidadoso de la misma.

  • 4. Debe especificarse su duración y frecuencia.

  • 5. Debe seguir los principios básicos de confiabilidad y validez.

Entre las ventajas de la observación, tenemos que determinada conducta se describe en el momento exacto en que está ocurriendo. Además, las observaciones se pueden realizar independientemente de que las personas estén dispuestas a cooperar o no, a diferencia de otros métodos en los que sí necesitamos de la cooperación de las personas para obtener la información deseada. En contraposición, también existen algunas desventajas, tales como la dificultad para observar un comportamiento específico en el momento de efectuar la observación. Además, las conductas que se encuentran sujetas a observación, generalmente son limitadas. Es difícil poder observar la interacción familiar, por ejemplo, al acostarse o levantarse.

La observación, debido a su utilidad, es un método que se puede utilizar, junto con otros, para recabar información. Por ejemplo, se puede emplear la observación en un estudio exploratorio, y para el estudio final se pueden usar otros métodos tales como "cuestionarios, entrevistas, etc.

Observación participante: Este tipo de observación está determinado por el hecho de Be el observador participa de manera activa dentro del grupo

que se está estudiando; se identifica con él de tal manera que el grupo lo considera uno más de sus miembros, es decir, el observador tiene una participación tanto externa, en cuanto a actividades, como interna, en cuanto a sentimientos e

inquietudes. Con este tipo de observación, los investigadores pueden influir en la vida del grupo.

Un problema del registro de la observación es que el observador puede perder su Objetividad. Para resolver este problema es conveniente que más de una persona observe el mismo fenómeno, con el fin de comparar las observaciones realizadas.

¡Observación no participante: En este tipo de observación el investigador no participa de manera activa dentro del grupo que observa. Se limita a mirar y a tomar notas sin relacionarse con los miembros del grupo. Dependiendo de los objetivos que persiga la ^investigación, se empleará uno u otro tipo de observación.

La observación participante nos puede dar una idea más clara acerca de lo que sucede dentro de un grupo, puesto que si los sujetos ven al observador como un miembro más del grupo se comportarán normalmente. En cambio, aplicando la observación no participante, probablemente no se comportarán normalmente. Por otro lado, es probable que el investigador, al no participar en la vida del grupo observado, pueda mantener más fácilmente su objetividad.

Observación libre o no estructurada: Generalmente se lleva a cabo en un estudio piloto, cuando no se conoce muy bien la muestra que se va a estudiar.

Puntos a considerar:

  • La población que vamos a estudiar: quiénes son, cómo se relacionan entre sí, edad, sexo, nivel socioeconómico, etc.

  • Las variables que son relevantes para nuestro estudio, así como la frecuencia y duración de las mismas.

La mejor manera de registrar esta información es haciéndolo en el momento y situación en que se está manifestando la conducta, puesto que así tendremos menos prejuicios, seremos menos selectivos y, en general, más objetivos al registrar la información tal y como se presenta en la realidad. Sin embargo, esto no siempre se puede realizar, puesto que al estar tomando notas se puede distorsionar la conducta; además, las personas pueden comportarse de manera poco diferente cuando saben que las están observando, y sobre todo si alguien está tomando notas en relación con su comportamiento. Por otro lado, es difícil tomar notas y observar al mismo tiempo.

Si se trata de guardar todo en la memoria, probablemente la observación no pueda ser muy exacta. Lo que se puede hacer es escribir solamente palabras claves mientras se realiza la observación. Cuando se redacten los resultados finales, se debe utilizar una forma organizada y sistemática, como, por ejemplo, una tabla de frecuencias.

Observación estructurada: Es aquella que se lleva a cabo cuando se pretende probar una hipótesis, o cuando se quiere hacer una descripción sistemática de algún fenómeno. Es decir, cuando estamos realizando un estudio o investigación en el que sabemos exactamente lo que vamos a investigar y tenemos

un diseño de investigación. Se diferencia de la observación no estructurada en el sentido de que en esta última sólo poseemos una idea vaga acerca de lo que vamos a observar, mientras que en la estructurada ya tenemos más claramente definidos los objetivos que nos ayudarán a clasificar y concretar el fenómeno en cuestión. En este tipo de observación nos basamos en tablas de frecuencias.

La observación estructurada presenta menos problemas prácticos en cuanto a la forma de registro y utilizamos formas estandarizadas. Existen menos probabilidades de que los observadores sean subjetivos.

3.4.14 Obtención y ordenamiento de datos

3.4.14.1 .Marco de referencia de un estudio estadístico

  • 1. Definir la unidad de observación (elemento sobre el que vamos a registrar los datos). Las unidades de observación pueden tener existencia natural, como una persona o una cosa (elementos tangibles), o pueden estar definidas artificialmente, como las distintas áreas de una empresa.

  • 2. Determinar qué vamos a medir (lo que vamos a observar).

  • 3. Definir si el relevamiento de datos se hace sobre la totalidad (población) o sobre una muestra. Si el análisis se realiza en base a una muestra, el objetivo

es obtener conclusiones acerca de la población. Por lo tanto, la muestra debe ser representativa de la población de la cual fue extraída.

Ordenamiento de datos. Los datos son colecciones de cualquier cantidad de observaciones relacionadas. Una colección de datos se conoce como conjunto de datos, y una sola observación es un punto de dato.

Para que los datos sean útiles, necesitamos organizar nuestras observaciones, de modo que podamos distinguir patrones y llegar a conclusiones lógicas.

Recolección de datos: Los especialistas en estadística seleccionan sus observaciones de manera que todos los grupos relevantes estén representados en los datos. Los datos pueden provenir de observaciones reales o de registros que se mantienen para otros propósitos.

Los datos pueden ayudar a los responsables de tomar decisiones a hacer suposiciones bien pensadas acerca de las causas y, por tanto, de los efectos probables de ciertas características en situaciones dadas. También el conocimiento de tendencias adquirido de la experiencia previa puede permitir estar al tanto de posibles resultados y actuar en consecuencia.

Cuando los datos son ordenados de manera compacta y útil, los responsables de tomar decisiones pueden obtener información confiable sobre el ambiente y usarla para tomar decisiones inteligentes. Los administradores deben tener mucho

cuidado y asegurar que los datos utilizados están basados en suposiciones e interpretaciones correctas. Para ello, se utilizan las pruebas para datos:

  • ¿De dónde vienen los datos? ¿La fuente es parcial? ¿Es posible que haya un interés en proporcionar datos que conduzcan a una cierta conclusión más que a otras?

  • ¿Los datos comprueban o contradicen otras evidencias que se poseen?

  • ¿Hace falta alguna evidencia cuya ausencia podría ocasionar que se llegue a una conclusión diferente?

  • ¿Cuántas observaciones se tienen? ¿Representan a todos los; grupos que se desea estudiar?

  • ¿La conclusión es lógica? ¿Se ha llegado a conclusiones que nuestros datos no confirman?

  • ¿Vale la pena usar los datos o debemos esperar y recabar más información antes de actuar?

Diferencia entre muestras y poblaciones: Muestra y población son términos relativos, una población es un todo y una muestra es una fracción o segmento de ese todo, estudiaremos muestras con el fin de ser capaces de describir poblaciones.

El estudio de muestras es más sencillo que el estudio de la población completa, cuesta menos y lleva menos tiempo. Además, se ha probado que el examen de una población entera todavía permite la aceptación de elementos

defectuosos, por tanto, en algunos casos, el muestreo puede elevar el nivel de calidad.

Una población es un conjunto de todos los elementos que estamos estudiando, acerca de los cuales intentamos sacar conclusiones. Debemos definir dicha población de modo que quede claro cuándo un cierto elemento pertenece o no a la población.

Una muestra es una colección de algunos elementos de la población, pero no de todos, cualquier grupo que cumple con los requisitos de la población, puede constituir una muestra siempre y cuando el grupo sea una fracción de la población completa.

Una muestra representativa contiene las características relevantes de la población en las mismas proporciones en que están incluidas en tal población.

Búsqueda de un patrón significativo en los datos: Existen muchas formas de organizar datos. Podemos sólo colectarlos y mantenerlos orden; o si las observaciones están hechas con números, entonces podemos hacer una lista de los puntos de datos menor a mayor según su valor numérico. Pero sí los datos son trabajadores especializados o los distintos tipos de automóviles que ensamblan todos los fabricantes, debemos organizarlos de manera distinta. Necesitaremos presentar los puntos de datos en orden alfabético o mediante algún principio de organización. Una forma común de organizar los datos consiste en dividirlos en categorías o clases parecidas y luego contar el número de observaciones que

quedan dentro de cada categoría. Este método produce una distribución de frecuencias.

El objetivo de organizar los datos es permitirnos ver rápidamente algunas de las características de los datos que hemos recogido: el alcance (los valores mayor y menor), patrones evidentes, alrededor de qué valores tienden a agruparse los datos, qué valores aparecen con mayor frecuencia, etc.

Datos sin procesar: La información obtenida, antes de ser organizada y analizada, se conoce como datos sin procesar puesto que aún no han sido tratados mediante ningún método estadístico.

La cantidad de datos más grande y los detalles más minuciosos pueden no contener la información más útil para la toma de decisiones administrativa. Una parte importante de la planeación de sistemas de información administrativa consiste en resumir y presentar los datos de modo que se pueda obtener la información crítica de manera rápida y sencilla.

Ordenamiento de datos utilizando su arreglo y distribución de frecuencias: La ordenación de datos es una de las formas más sencillas de presentarlos, los forma en orden ascendente o descendente.

Ventajas:

  • 1. Podemos notar rápidamente los valores mayor y menor de los datos.

  • 2. Podemos dividir fácilmente los datos en secciones.

  • 3. Podemos ver si algunos de los valores aparecen más de una vez en ese ordenamiento.

  • 4. Podemos observar la distancia entre valores sucesivos de datos.

En ocasiones, un ordenamiento de datos no resulta útil. Debido a que da una lista de todos los valores, es una forma incómoda de mostrar grandes cantidades de datos.

3.4.15 La distribución de frecuencias

Una forma en que podemos comprimir los datos es la tabla de frecuencias o distribución de frecuencias. Las distribuciones de frecuencias sacrifican algunos detalles, pero ofrecen nuevas perspectivas sobre los patrones de datos.

Una distribución de frecuencias es una tabla en la que los datos se organizan en clases, es decir, en grupos de valores que describen una característica de los datos. Muestra el número de observaciones del conjunto de datos que caen en cada una de las clases.

3.4.16 Características de las distribuciones de frecuencias relativas

También podemos expresar la frecuencia de cada valor como una fracción o un porcentaje del número total de observaciones. Para obtener este valor, dividimos la frecuencia de esa clase entre el número total de observaciones del conjunto de datos. La respuesta se puede expresar como una fracción, un número decimal o un porcentaje.

La suma de todas las frecuencias relativas es igual a 1,00 o a 100%. Esto es así debido a que una distribución de frecuencias relativas aparea a cada clase con su fracción o porcentaje apropiados del total de datos. Por consiguiente, las clases que aparecen en cualquier distribución de frecuencias, ya sean relativas o simples, son completamente inclusivas. Todos los datos caen en una u otra categoría. Las clases son mutuamente exclusivas, es decir, ningún punto de dato cae en más de una categoría. En las distribuciones de frecuencias no aparecen clases que se traslapen.

Podemos, también, clasificar la información de acuerdo con características cualitativas, como raza, religión y sexo, que no entran de manera natural en clasificaciones numéricas. Como clases de atributos cuantitativos, éstas deben ser completamente inclusivas y mutuamente exclusivas.

La categoría "otros" se conoce como clase de extremo abierto cuando permite que el extremo inferior o el superior de una clasificación cuantitativa no estén limitados.

Los esquemas de clasificación pueden ser tanto cuantitativos como cualitativos y tanto discretos como continuos. Las clases discretas son entidades separadas que no pasan una clase discreta a otra sin que haya un rompimiento. Los datos discretos son ¡aquellos que pueden tomar sólo un número limitado de valores.

Los datos continuos pasan de una clase a otra sin que haya un rompimiento. Implican mediciones numéricas. Los datos continuos pueden expresarse con números fraccionarios o con enteros. Las variables discretas son cosas que se pueden contar y las continuas son cosas que aparecen en algún punto de una escala.

3.4.17 Construcción de una distribución de frecuencias

  • 1. Decidir el tipo y número de clases para dividir los datos. De acuerdo con la medida cuantitativa o un atributo cualitativo. Necesitamos decidir cuántas clases distintas usar y el alcance que cada clase debe cubrir, el alcance total debe dividirse entre clases iguales, esto es, el ancho del intervalo, tomado desde el principio de una clase hasta el principio de la clase siguiente, necesita ser el mismo para todas las clases. El número de clases depende del número de puntos de dato y del alcance de los datos recolectados. Cuantos más puntos de dato se tengan o cuanto más grande sea el alcance, más clases se necesitarán para dividir los datos. Como regla general, los estadísticos rara vez utilizan menos de 6 y más de 15 clases. Debido a que necesitamos hacer los intervalos de clase de igual tamaño, el número de clases determina el ancho de cada clase.

Ancho de los intervalos de clase = (valor unitario siguiente después del valor más grande de los datos – valor más pequeño de los datos) / número total de intervalos. Debemos utilizar el siguiente valor más alto de las mismas unidades, ya que estamos midiendo el intervalo entre el primer valor de una clase y el primer valor de la siguiente.

  • 2. Clasificar los puntos de datos en clases y contar el número de datos.

  • 3. Ilustrar los datos en un diagrama.

3.4.18 Representación gráfica de las distribuciones de frecuencias

Las gráficas dan los datos en un diagrama de dos dimensiones. Sobre el eje horizontal podemos mostrar los valores de la variable (la característica que estamos midiendo). Sobre el eje vertical señalamos las frecuencias de las clases mostradas en el eje horizontal.

Las gráficas de distribuciones de frecuencias simples y de distribuciones de frecuencia relativas son de utilidad debido a que resaltan y aclaran los patrones qué no se pueden distinguir fácilmente en las tablas. Atraen la atención del que las observa hacia los patrones existentes en los datos. Las gráficas pueden también ayudarnos a resolver problemas concernientes a las distribuciones de frecuencias. Nos permitirán estimar algunos valores con sólo una mirada y nos proporcionarán una verificación visual sobre la precisión de nuestras soluciones.

3.4.19 Histogramas

Un histograma consiste en una serie de rectángulos, cuyo ancho es proporcional al alcance de los datos que se encuentran dentro de una clase, y cuya altura es proporcional al número de elementos que caen dentro de cada clase. Si las clases que utilizamos en la distribución de frecuencias son del mismo ancho, entonces las barras verticales del histograma también tienen el mismo ancho. La altura de la barra -correspondiente a cada clase representa el número de observaciones de la clase. Como consecuencia, el área contenida en cada rectángulo (ancho por altura) ocupa un porcentaje del área total de todos los rectángulos igual al porcentaje de la frecuencia de la clase correspondiente con respecto a todas las observaciones hechas.

Un histograma que utiliza las frecuencias relativas de los puntos de dato de cada una de las clases, en lugar de usar el número real de puntos, se conoce como histograma de frecuencias relativas. Este tipo de histograma tiene la misma forma que un histograma de frecuencias absolutas construido a partir del mismo conjunto de datos Esto es así debido a que en ambos, el tamaño relativo de cada rectángulo es le frecuencia de esa clase comparada con el número total de observaciones.

3.4.20 Polígonos de frecuencias

Son otra forma de representar gráficamente distribuciones tanto de frecuencias simples; como relativas. Para construir un polígono de frecuencias

señalamos éstas en el eje vertical y los valores de la variable que estamos midiendo en el eje horizontal. A continuación, graficamos cada frecuencia de clase trazando un punto sobre su punto medio y conectamos los resultantes puntos sucesivos con una línea recta para forma un polígono.

Se añaden dos clases, una en cada extremo de la escala de valores observados. Esta dos nuevas clases que contienen cero observaciones permiten que el polígono alcance el eje horizontal en ambos extremos de la distribución.

Un polígono de frecuencias es sólo una línea que conecta los puntos medios de todas las barras de un histograma. Por consiguiente, podemos reproducir el histograma mediante el trazado de líneas verticales desde los límites de clase y luego conectando tales líneas con rectas horizontales a la altura de los puntos medios del polígono.

Un polígono de frecuencias que utiliza frecuencias relativas de puntos de dato en cada una de las clases, en lugar del número real de puntos, se conoce como polígono de frecuencias relativas. Este polígono tiene la misma forma que el polígono de frecuencias construido a partir del mismo conjunto de datos, pero con una escala diferente en los valores del eje vertical.

Ventajas de los histogramas:

  • Los rectángulos muestran cada clase de la distribución por separado.

  • El área de cada rectángulo, en relación con el resto, muestra la proporción del número total de observaciones que se encuentran en esa clase.

  • Ventajas de los polígonos de frecuencias:

  • Es más sencillo que su correspondiente histograma.

  • Traza con más claridad el perfil del patrón de datos.

  • Se vuelve cada vez más liso y parecido a una curva conforme aumentamos el número de clases y el número de observaciones.

Un polígono alisado mediante el aumento de clases y de puntos de dato se conoce como curva de frecuencias.

3.4.21 Ojivas

Una distribución de frecuencias acumuladas nos permite ver cuántas observaciones están por encima de ciertos valores, en lugar de hacer un mero registro del número de elementos que hay dentro de los intervalos. La gráfica de una distribución de frecuencias acumuladas se conoce como ojiva.

En ocasiones, la información que utilizamos se presenta en términos de frecuencias acumuladas "mayores que". La ojiva adecuada para tal información

tendría una inclinación hacia abajo y hacia la derecha, en lugar de tener una inclinación hacia arriba y a la derecha. Podemos construir una ojiva de una distribución de frecuencias relativas de la misma manera en que trazamos la ojiva de una distribución de frecuencias absolutas. Sólo habrá un cambio: la escala del eje vertical.

Del ordenamiento de datos podemos construir distribuciones de frecuencias. A partir de las distribuciones de frecuencias podemos construir distribuciones de frecuencias acumuladas. A partir de éstas podemos trazar una ojiva. Y de esta ojiva podemos aproximar los valores que tenemos en el ordenamiento de datos. Sin embargo, no podemos recobrar de manera normal los datos originales exactos a partir de cualquiera de las representaciones gráficas que hemos analizado.

3.4.22 Tratamiento de una variable discreta

Se utilizan los diagramas de barras, la diferencia con el histograma es que los rectángulos no se tocan entre sí; esto se debe a que, al ser la variable discreta, entre los valores sucesivos no hay valores intermedios.

Las frecuencias acumuladas se grafican por medio de una ojiva en forma de escalera, debido a que la frecuencia aumenta de a saltos.

3.4.23 Errores

El significado de la palabra "error" no es muy preciso, puesto que con frecuencia autores diferentes lo emplean con sentidos diferentes. En un sentido amplio puede considerarse el error como una estimación o cuantificación de la incertidumbre de una medida. Cuanto más incierta sea una medida, tanto mayor será el error que lleva aparejado.

Suelen distinguirse dos tipos de errores: errores sistemáticos y accidentales.

3.4.23.1 Errores sistemáticos

Como su nombre indica, no son debidos al azar o a causas no controlables. Pueden surgir de emplear un método inadecuado, un instrumento defectuoso o bien por usarlo en condiciones para las que no estaba previsto su uso. Por ejemplo, emplear una regla metálica a una temperatura muy alta, puede introducir un error sistemático si la dilatación del material hace que su longitud sea mayor que la nominal. En este caso, todas las medidas pecarán (sistemáticamente) por defecto. El error podría evitarse eligiendo un material de coeficiente de dilatación bajo o controlando la temperatura a la que se mide.

Medir temperaturas con un termómetro graduado en grados Fahrenheit, suponiendo por equivocación que está graduado en grados Celsius, introduce también un error sistemático en la medida. El error se evita en este caso recabando información sobre la escala del termómetro.

Los errores sistemáticos no son objeto de la teoría de errores. Realmente son equivocaciones que pueden y deben evitarse, empleando métodos e instrumentos de medida correctos y adecuados a los fines que se deseen obtener.

3.4.23.2 Errores accidentales

Estos son los que llamaremos simplemente errores en el sentido técnico de la palabra. Son incertidumbres debidas a numerosas causas incontrolables e imprevisibles que dan lugar a resultados distintos cuando se repite la medida en condiciones idénticas.

Los errores accidentales, o errores propiamente dichos, parecen fruto del azar, y por ello reciben el nombre de errores aleatorios. Pueden ser debidos a la acumulación de muchas incertidumbres sistemáticas incontrolables o bien pueden, provenir de variaciones intrínsecamente aleatorias a nivel microscópico. En ambos casos el resultado es que las medidas de una magnitud siguen una distribución de probabilidad, que puede analizarse por medios estadísticos. Aunque la presencia de los errores accidentales no pueda evitarse, sí puede estimarse su magnitud por medio de estos métodos estadísticos.

3.4.23.3 Error absoluto

Por motivos obvios, y por su propia naturaleza, no es posible determinar exactamente un error. En el mejor de los casos, puede llegarse a una estimación de ese error. Cuando el resultado de una medida se expresa por:

Monografias.com

3.4.23.4 Error relativo

Monografias.com

En medidas de una cierta calidad el error relativo debe ser mucho menor que la unidad. Frecuentemente se expresa multiplicado por 100, con lo que aparece en tanto por ciento del valor medido:

 

  • Monografias.com

Cifras significativas

Se considera que las cifras significativas de un número son aquellas que tienen significado real o aportan alguna información. Las cifras no significativas aparecen como resultado de los cálculos y no tienen significado alguno. Las cifras significativas de un número vienen determinadas por su error. Son cifras significativas aquellas que ocupan una posición igual o superior al orden o posición del error.

Por ejemplo, consideremos una medida de longitud que arroja un valor de 5432,4764 m con un error de 0,8 m. El error es por tanto del orden de décimas de metro. Es evidente que todas las cifras del número que ocupan una posición menor que las décimas no aportan ninguna información. En efecto, ¿qué sentido tiene dar el número con precisión de diezmilésimas si afirmamos que el error es de casi 1 metro? Las cifras significativas en el número serán por tanto las que ocupan la posición de las décimas, unidades, decenas, etc., pero no las centésimas, milésimas y diezmilésimas.

Cuando se expresa un número debe evitarse siempre la utilización de cifras no significativas, puesto que puede suponer una fuente de confusión. Los números deben redondearse de forma que contengan sólo cifras significativas. Se llama redondeo al proceso de eliminación de cifras no significativas de un número.

Una última forma de expresar el error de un número consiste en afirmar que todas sus cifras son significativas. Esto significa que el error d'xes del orden de media unidad de la última cifra que se muestra. Por ejemplo, si el resultado de una medida de longitud es de 5432,8 m, y afirmamos que todas las cifras son significativas, quiere decirse que el error es del orden de 0,5 m, puesto que la última cifra mostrada es del orden de las décimas de metro.

¿Cómo pueden determinarse las cifras significativas a partir del número que expresa el error? Hay que tener siempre presente que todo error es una estimación y está por tanto sujeto a cu vez ••'. .:r,i incertidumbre, generalmente grande. Por esto no tiene sentido especificarlo con excesiva precisión. Salvo casos excepcionales, se expresará con una sola cifra significativa.

  •  Redondeo de números: Hemos visto que todos los números resultantes de una medida tienen una cierta incertidumbre. Es necesario eliminar de estos números aquellas cifras que carecen de significado porque el error es mayor que lo que estas cifras significan. A continuación se exponen algunos ejemplos.

El resultado de la medición de una temperatura se expresa en la forma

T= 301,267 ± 0,3K

Incorrecto, puesto que las dos últimas cifras (67) no tienen significado alguno, al ocupar una posición menor que el error. La forma de expresar el resultado anterior podría ser

 

  • Monografias.com,

Añadiendo que todas las cifras son significativas. No es sin embargo aconsejable, puesto que se pierde algo de información.

Si se quieren presentar los resultados anteriores con los errores relativos, puede escribirse

  • Monografias.com

Las reglas que emplearemos en el redondeo de números son las siguientes:

  • Si la cifra que se omite es menor que 5, se elimina sin más.

  • Si la cifra eliminada es mayor que 5, se aumenta en una unidad la última cifra retenida.

  • Si la cifra eliminada es 5, se toma como última cifra el número par más próximo; es decir, si la cifra retenida es par se deja, y si es impar se toma la cifra superior.

Las dos primeras reglas son de sentido común. La tercera es un convenio razonable porque, si se sigue siempre, la mitad de las veces redondeamos por defecto y la mitad por exceso.

Cuando los números a redondear sean grandes, las cifras eliminadas se sustituyen por ceros. Por ejemplo, el número 3875 redondeado a una cifra significativa resulta 4000. En este caso suele preferirse la notación exponencial, puesto que si escribimos "4000" puede no estar claro si los ceros son cifras significativas o no. En efecto, al escribir 4.103 queda claro que sólo la cifra "4" es significativa, puesto que si los ceros también lo fueran escribiríamos 4,000.103.

  •  Estimación del error de una medida directa: La estimación del error de una medida tiene siempre una componente subjetiva. En efecto, nadie mejor que un observador experimentado para saber con; buena aproximación cuál es el grado de confianza que le merece la medida que acaba de tomar. No existe un conjunto de reglas bien fundadas e inalterables que permitan determinar el error de una medida en todos los casos imaginables. Muchas veces es tan importante consignar cómo se ha obtenido un error como su propio valor.

  • Sin embargo, la aplicación de algunos métodos estadísticos permite objetivar en gran medida la estimación de errores aleatorios. La estadística permite obtener los parámetros de una población (en este caso el conjunto de todas las medidas que es posible tomar de una magnitud), a partir de una muestra (el número limitado de medidas que podemos tomar).

    •  Mejor valor de un conjunto de medidas: Supongamos que medimos una magnitud un número n de veces. Debido a la existencia de errores aleatorios, las n medidas n serán en general diferentes.

    El método más razonable para determinar el mejor valor de estas medidas es tomar el valor medio. En efecto, si los errores son debidos al azar, tan probable es que ocurran por defecto como por exceso, y al hacer la media se compensarán, por lo menos parcialmente. El valor medio se define por:

    Monografias.com(9)

    y este es el valor que deberá darse como resultado de las medidas.

    •  Dispersión y error. Desviación estándar: Evidentemente, el error de la medida debe estar relacionado con la dispersión de los valores; es decir, si todos los valores obtenidos en la medición son muy parecidos, es lógico pensar que el error es pequeño, mientras que si son muy diferentes, el error debe ser mayor.

    Adoptando un criterio pesimista, podría decirse que el error es la semidiferencia entre el valor máximo y el mínimo.

    Por ejemplo, en una serie de medidas de una magnitud que arrojen los resultados:

    2342

    2351

    2356

    2356

    2357

    2359

    2362

    2363

    2365

    2365

    2367

    2368

    2368

    2369

    2370

    2373

    2374

    2375

    2382

    2389

    Los valores máximo y mínimo son 2342 y 2389. La semidiferencia es 235. La media es 2366, con lo que si damos como resultado 23,66 ± 235, todos los valores del conjunto de medidas están en el intervalo.

    Este error es sin embargo excesivamente grande, además de que el criterio utilizado es discutible. Parece más apropiado tomar como error la desviación media, es decir, el valor medio de la diferencia de los datos respecto al valor central. Sin embargo, como los datos difieren tanto por defecto como por exceso del valor medio, tal desviación se aproximaría a cero. Para evitarlo suele tomarse, no el valor medio de las desviaciones, sino el valor medio de las desviaciones al cuadrado. De esta forma todos los sumandos son positivos. Para que la unidad de este número sea homogénea con la de los datos, se extrae la raíz cuadrada. El valor resultante se llama desviación típica o desviación estándar del conjunto de datos.

    (10)Monografias.com

    Cuando el número de datos es pequeño, suele preferirse el cálculo de la desviación estándar por la ecuación:

    (11)Monografias.com

    La primera suele llamarse desviación estándar de población, y la segunda desviación estándar muestral. Uno de los motivos de preferir la segunda, es que cuando medimos una sola vez, el resultado de la ecuación 11 es s , es decir un número indefinido. Efectivamente, midiendo una magnitud una sola vez, no

    tenemos información alguna sobre su error, y por lo tanto éste debe permanecer indefinido. Sin embargo la expresión 10 conduciría a un error nulo.

    Las dos expresiones se emplean, aunque en la práctica, y si el número de medidas es grande, la diferencia entre emplear una u otra es muy pequeña. La más empleada es la segunda, ecuación 11.

    •  Significado de la desviación estándar y la distribución normal: Los valores de la desviación estándar que hemos calculado en la sección anterior, son realmente estimadores de este parámetro. El conjunto de las medidas de una magnitud, siempre que exista un error accidental, pueden caracterizarse por medio de una distribución estadística. Cuando el error es debido a un gran número de pequeñas causas independientes, la distribución se aproxima a la llamada distribución normal.

    • La forma de representar en estadística una distribución es representando en abscisas el conjunto de valores que pueden obtenerse en una medida y en ordenadas la probabilidad de obtenerlos. En el caso de que la magnitud medida varíe de forma continua, en ordenadas se representa la probabilidad por unidad de intervalo de la magnitud medida. En una distribución continua, la probabilidad de que una medida esté entre dos valores X0 y X1 viene representada por

      Monografias.comMonografias.com(12)

      donde f(x) es la función de densidad de la distribución. La función de densidad representa la probabilidad (por unidad de intervalo de la magnitud medida) de obtener un determinado valor en una medida. Obviamente

      Monografias.com(13)

      Puesto que es seguro (probabilidad 1) obtener un valor cualquiera cuando se mide una magnitud.

      Monografias.com

      Figura 3.4.23.4.1 Función de densidad de una distribución normal de media 0 y desviación estándar 1

      La función de densidad de la distribución normal tiene el aspecto reflejado en la figura. Recibe también el nombre de campana de Gauss debido a su forma. Está caracterizada por dos parámetros: media y desviación estándar. La media es

      el valor que con mayor probabilidad aparecerá en una medida. La desviación estándar refleja lo abierta o cerrada que es la campana de Gauss correspondiente. Una distribución muy cerrada se corresponde con una serie de medidas muy poco dispersas, y por tanto con poco error. Por el contrario si la distribución es abierta, la desviación estándar es grande.

      Una de las propiedades de la distribución normal es que la probabilidad que encierra el intervalo (m – s, m + s) es del 68.3 % aproximadamente. Es decir, es de esperar que el 68.3 % de las medidas de una magnitud estén comprendidas en ese intervalo. Dicho de otra forma, si medimos una magnitud un número grande de veces, el 68.3 % e los valores obtenidos estarán comprendidos en el entorno de una desviación estándar en torno a la media. La probabilidad se amplía al 95.4 % y al 99.7 % si consideramos los intervalos (m – 2s, m + s) y (m – 3s, m + 3s) respectivamente.

      El error expresado por la desviación estándar tiene por tanto un significado probabilístico: hay una probabilidad del 68% de que una medida esté en el entorno de una desviación estándar alrededor de la media.

      La distribución normal aparece con frecuencia en las medidas de magnitudes, pero no siempre. La distribución de una serie de medidas se aproxima a una normal siempre y cuando la fuente de error sea la superposición de muchas pequeñas causas independientes. Si hay una o varias causas de error predominantes o si las causas de error no son independientes, se dice que las medidas presentan un sesgo, y la distribución puede muy bien ser otra. Es muy frecuente encontrar distribuciones de medida no simétricas, con dos o más máximos, etc.

      Tiene que insistir finalmente en que no es posible determinar la media y la desviación estándar de una distribución, sino solamente estimarlas.

      3.4.24 Distribución Normal

      Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio hombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.

      Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana. En otras ocasiones, al considerar distribuciones binomiales tipo B (n, p), para un mismo valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de campan".

      En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas fenómenos naturales que siguen el modelo de la normal.

      • Caracteres morfológicos de individuos (personas, animales, plantas,…) de una especie, Ej. Tallas, pesos, envergaduras, diámetros/perímetros.

      • Caracteres fisiológicos, por ejemplo; efecto de una misma dosis de un fármaco, o de una misma cantidad de abono.

      • Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen.

      • Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un medio.

      • Errores cometidos al medir ciertas magnitudes.

      • Valores estadísticos maestrales, por ejemplo: la media.

      • Otras distribuciones como la binomial o la de Poisson son aproximaciones normales.

      Y en general cualquier característica que se obtenga como suma de muchos factores.

      •  Medidas Sin Dispersión Y Error De Lectura O Instrumental

      En ocasiones la repetición de la medida de una magnitud conduce siempre al mismo valor. Como ejemplo, consideremos la medida de la longitud de un objeto con una regla graduada en milímetros. Si la medida se realiza con cierta atención, todas las medidas del objeto proporcionan el mismo valor.

      Es evidente que en este caso la teoría anterior no resulta aplicable, porque al ser nula la dispersión, la desviación estándar resulta igual a cero. En estos casos, la fuente de error no está en la superposición de muchas causas aleatorias, sino en la sensibilidad del aparato de medida.

      En efecto, el hecho de que todas las medidas sean iguales no indica en general que no haya error accidental, sino que éste es demasiado pequeño para

      quedar reflejado en el aparato. En el ejemplo anterior, si el error accidental de las medidas es del orden de 0,001 mm es evidente que la regla no podrá apreciarlo, resultando todas las medidas iguales. En estos casos es necesario estimar el error debido a la sensibilidad finita del aparato de medida.

      Se llama sensibilidad de un aparato a la mínima variación de la magnitud medida que es capaz de detectar. En los instrumentos analógicos coincide frecuentemente con la mínima división de la escala. En el ejemplo anterior la sensibilidad de la regla es de 1 mm.

      Suele llamarse apreciación al máximo error que puede cometerse debido a la sensibilidad del aparato. Generalmente se considera como la mitad de la sensibilidad. Esto puede comprenderse con un ejemplo. Supongamos un voltímetro de 0,1 V de sensibilidad, cuya aguja indica una tensión comprendida entre 2,1 V y 2,2 V, es decir, la aguja señala un punto intermedio entre las dos marcas o divisiones de la escala. Si el aparato está bien diseñado, una persona con apreciación visual media debe ser capaz de decidir si la aguja está más cerca de 2,1 V o de 2,2 V. Cometeremos el máximo error cuando la aguja se encuentre justamente en el centro de las dos divisiones. En tal caso el error de dar como lectura 2,1 V o 2,2 V es de 0,05 V, es decir la mitad de la sensibilidad.

      Monografias.com

      Hemos visto que cuando el error instrumental es mucho mayor que el accidental, éste queda enmascarado por aquel. El efecto inverso es también posible. Por tanto, en los casos en que el error accidental de una medida sea mucho mayor que el instrumental, sólo consideraremos el error accidental.

      En aquellos casos en que los errores sean del mismo orden de magnitud, puede considerarse que el error total es la suma de los dos:

      Monografias.com

      donde eins es el error instrumental y s es el error accidental expresado por la desviación estándar.

      3.5 FUNDICIONES

      Las fundiciones, son aleaciones de hierro, carbono y silicio, que generalmente contienen también manganeso, fósforo, azufre, etc. Son de mayor contenido de carbono que los aceros (2 a 4,5%) y adquieren su forma definitiva directamente después de la colada, no son deformables plásticamente ni en frío ni en caliente. En general no son dúctiles ni maleables y no pueden forjarse ni laminarse.

      Para la fabricación de piezas de fundición se emplea generalmente como materia prima fundamental para su obtención, arrabio o lingotes de hierro, además se utilizan también en las cargas de los hornos, chatarras de fundición y a veces, se emplean cantidades variables de chatarras de acero. Durante los procesos de fabricación se suelen hacer algunas adiciones de ferrosilicio y ferromanganeso para obtener en cada caso la composición deseada.

      •  Principales propiedades de las fundiciones

      • La fabricación de fundiciones es sencilla por emplearse instalaciones de bajo costo y realizarse la fusión a temperaturas relativamente pocos, elevadas, y más bajas que las que corresponden al acero.

      • Poseen buenas características mecánicas tales como, resistencia a la compresión elevada (50 a 100 Kg/mm2) y su resistencia a la tracción puede variar entre 12 y 90 Kg/mm2. Tiene buena resistencia al desgaste y absorben muy bien las vibraciones a que a veces están sometidas.

      • Su fabricación exige menos precauciones que la del acero y, sin necesidad de controles técnicos muy especiales, se llegan a obtener fundiciones con características muy aceptables para numerosas aplicaciones.

      • Como las temperaturas de fusión de las fundiciones son, como hemos dicho antes, bastante bajas, se pueden sobrepasar con bastante facilidad, por lo que en general suele ser bastante fácil conseguir que las fundiciones en estado líquido tengan fluidez.

      • En la solidificación presenta mucho menos contracción que los aceros, emplean refractarios relativamente especiales de precios elevados.

      3.5.2 Clasificación de las fundiciones

      Monografias.com

      Figuran 3.5.2.1 Algunas microestructuras típicas de los diferentes tipos de fundiciones

      Fuente: Laboratorio analítico CVG. ALCASA

      Por ser muchos y muy diferentes los factores que hay que tener en cuenta en la clasificación y selección de las fundiciones, es difícil establecer una clasificación simple y clara de las mismas. La más antigua y conocida de las clasificaciones establece cuatro grupos: Fundición blanca, gris, atruchada y maleable. A estos cuatro grupos se añade en la actualidad otro grupo, el de las fundiciones especiales, en el que se pueden incluir las fundiciones aleadas que contienen aleaciones especiales: Fundiciones nodulares, aciculares, inoculadas, dúctiles, etc. A continuación estudiaremos las fundiciones blancas y grises por ser las de mayor interés para el análisis de la presente investigación.

      Monografias.com

      Figura 3.5.2.2 Micro estructura de hierro blanco a 20x

      Fuente: Laboratorio analítico CVG. ALCASA

      Fundición blanca (todo el carbono se encuentra combinado): Las fundiciones blancas son aleaciones de hierro carbono cuyos procesos de solidificación y de transformación se realizan de acuerdo con las leyes generales correspondientes al diagrama hierro carbono metaestable que se señala al estudiar los aceros, y están constituidas por perlita y cementita, originadas por la transformación al enfriarse la ledeburita, que es un eutectico formado por la austenita saturada y la cementita

      (esta no existe en los aceros). La presencia de cantidades importantes de cementita y de esos grupos de cementita y perlita reunidos en forma similar a la que le corresponden a los eutecticos, es la causa de la gran fragilidad de las fundiciones blancas.

      Monografias.com

      Figura 3.5.2.3 Micro estructura de hierro blanco a 250x atacada con nital al 2%

      Fuente: Laboratorio analítico CVG. ALCASA

      La fundición blanca: en general, contiene poco silicio, menos de 1% y su formación, es favorecida por la influencia de azufre y manganeso. Su fractura es blanca y brillante, y en general es muy dura, frágil y de poca tenacidad.

      Fundición gris: Es una fundición caracterizada por la presencia de escamas de grafito soportadas por una matriz de ferrita, perlita, austenita o cualquier matriz posible en un acero. Esta contiene en general, cantidades de silicio, entre 1,5 y 3,5%. El color oscuro que tienen las fracturas de las fundiciones grises se debe a la presencia en las mismas de gran cantidad de láminas de grafito.

      Monografias.com

      Figura 3.5.2.4 hierro rundido gris.

      Fuente: Laboratorio analítico CVG. ALCASA

      Se puede decir que la presencia de grafito en cantidad importante baja la dureza, la resistencia y el modulo de elasticidad en comparación con los valores que corresponden a las mismas estructuras pero sin grafito, este además, reduce casi a cero la ductilidad, tenacidad y plasticidad.

      El carbono que se encuentra en forma de grafito, en las fundiciones grises ocupa un volumen mucho mayor que el que se presenta en forma combinada en las fundiciones blancas, por eso el peso (cortesía de CVG ALCASA) especifico de las fundiciones grises es (7,25) menor que el de las blancas (7,70). En el proceso de enfriamiento de una fundición gris produce una ligera dilatación debido a la formación de grafitos que no se presenta en la blanca, esta última se contrae aproximadamente 4,4% de su volumen mientras que las grises solo 2,1%.

      En las fundiciones la formación de grafito se favorece con la presencia de un elevado porcentaje de silicio y carbono y con bajas velocidades de enfriamiento, para obtener fundiciones grises, se deben vigilar los porcentajes de azufre y manganeso, que conviene que sean bastante bajos.

      Monografias.com

      Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter