Читать книгу: «Metodología básica de instrumentación industrial y electrónica», страница 3

Шрифт:

Propagación de los errores

Siempre es factible en un sistema de medición definir un error por escala básico (inicial) y luego definir ese mismo error absoluto por escala para un esquema más amplio, tal como se describe a continuación (figura 12).

Figura 12. El error por escala depende de la parte del circuito que se considere


Fuente: elaboración propia.

Matemáticamente se puede establecer la siguiente relación general:

Si


Y si


Aplicando una serie de Mc Claurin-Taylor truncada para valores pequeños del argumento, se tiene que:


O sea:


Y


En términos generales, para varias variables independientes del argumento:


Entonces:


Tratamiento del error accidental
Contexto de la aparición del error accidental

Dada la naturaleza aleatoria de los errores accidentales, que aparecen invariablemente en todo proceso de medición, es necesario un modelo probabilístico que permita acotar numéricamente el alcance de esta perturbación azarosa. Afortunadamente, ya hay toda una rama de la estadística matemática que da razón de este concepto.

Se parte del hecho de que en un proceso de medición, un cierto valor exacto que se mida repetidamente una multitud de veces, en cada oportunidad individual, estará afectado por una desviación que hace que se tenga una multitud de valores diferentes aunque bastante cercanos al valor exacto. Las desviaciones pequeñas serán más numerosas que las mayores. Ahora, si se quisiera caracterizar matemáticamente la distribución de estos valores a lado y lado del valor exacto, podría hacerse de manera muy precisa con la distribución acampanada de Gauss (figura 13).

Figura 13. Descripción de dispersión de mediciones por Gauss


Fuente: elaboración propia.

La distribución estadística de Gauss ha sido aplicada exitosamente durante mucho tiempo al análisis de los procesos aleatorios, en particular, a los que tienen que ver con los errores fortuitos.

Naturaleza del error accidental

La experiencia a través del tiempo muestra que siendo n el número de las mediciones repetidas, al cabo de n, la distribución ya no se dispersará más tomando el valor central exacto. Este concepto es el de la estabilidad de las frecuencias o de la uniformidad de la medición para los “grandes números”. Esta constancia del modelo permite definir una serie de conceptos para medir el error accidental. Un primer dato que aparece en el modelo es el llamado valor medio (o media muestreal) que se calcula para un número finito de mediciones:


Cuando el número de mediciones se expande hasta infinito, aparece la “media general” (“esperanza matemática”), M, definida de manera general como:


Cuando n es diferente de infinito la media se aproxima a M(x), y permanece en un intervalo definido por probabilidades P. Se habla entonces de una “probabilidad fiducial” concreta α = P de que M(x) esté en el intervalo definido. Como se está hablando de valores finitos (muestreales) se debe cambiar x (resultado de una medición) por la variable t que sigue siendo “resultado de una medición” pero calculada dentro de la llamada distribución de Student. Para aplicar esta distribución n se cambia por f + 1. Debido a que hay simetría en la curva de distribución, es cómodo poner 1-α en lugar de solo α (Spiridonov, 1972). Usualmente, en el trabajo científico se acepta una probabilidad fiduciaria del 95 % (α = 0,95).

Se define entonces:


Definición del error accidental

En el contexto analizado previamente, se define el error accidental asociado con la medición como:


Aquí s(x) es la varianza de la distribución de las mediciones que se define así:


Esta definición es muy importante porque se usa en muchos campos de la teoría de la medida y la instrumentación.

Ejemplo 6:

Se ha medido la longitud L con un microscopio con divisiones mínimas de hasta 0,001 mm de la escala del tambor. Es decir que el error absoluto por escala es:


Ahora, L se ha medido cinco veces (n = 5), y se han obtenido los valores mostrados en la tabla 2, en la que además hay otras columnas con los cálculos subsiguientes.

Tabla 2. Datos del experimento


i Li
1 6,191 −0,0192 0,0003686
2 6,215 +0,0048 0,0000230
3 6,228 +0,0178 0,0003168
4 6,200 −0,0102 0,0001040
5 6,217 +0,0068 0,0000462
Σ 31,051 0,0008586
s2 (L) = 2,146×10−4

Los cálculos en el cuadro se hacen mediante las siguientes fórmulas:


De aquí se halla que:


Por tanto:


Entonces, el error total para este proceso de medida es:


El resultado de la medición es:


Ejemplo 7:

En el proceso de medición anterior, por error de apreciación se hacen las medidas con un corrimiento en la regla (patrón) de 0,2 mm, lo cual se constituye en un error sistemático. Expresar la medida con esta nueva información.


En este caso, la medición se escribe como:


Como quiera que la tercera cifra decimal del resultado (1) es más de 10 veces menor que el límite fijado por el error absoluto total (22), esta cifra no debe conservarse.

Conceptos básicos de metrología
Definiciones

La metrología se designa como la ciencia de la medición, como un problema teórico, de principios. Tiene que ver fundamentalmente con la “traceabilidad” de la calibración de diferentes instrumentos desde los más sofisticados (nivel científico) hasta los más comunes (nivel técnico). La traceabilidad se ha denominado como el procedimiento sistemático de garantizar la precisión, exactitud y fiabilidad de un instrumento mediante procesos de secuencia de calibraciones.

La metrología es la base de todo desarrollo industrial, pues corresponde a esta la definición y verificación de las diferentes mediciones de las magnitudes físicas. Corresponde a una tradición de honestidad (en el medir y en el pensar) de los artesanos de la Edad Media, la cual ha sido preservada, sistematizada y mejorada, afortunadamente.

La metrología es la ciencia y el arte de diseñar, conducir, analizar y concluir una prueba científica y validar los resultados mediante normas y patrones.

Dado el amplio rango de la metrología, en esta se encontrarán discusiones y estudios de instrumentos y procedimientos que aceptan tolerancias (en las mediciones), a saber:

• Normal: labores rutinarias de campo.

• Precisión: nivel científico no especializado. Laboratorios locales.

• Alta precisión: nivel científico especializado. Laboratorios nacionales.

• Ultra precisión: laboratorios internacionales. Dispositivos cuánticos.

La metrología siempre es tan perfecta como el nivel de la ciencia y la tecnología de su época. Un avance científico importante de inmediato se refleja en avances y ampliaciones de los métodos de medición y su gestión. Un tema de gran importancia en el desarrollo de la metrología es el de las características de calidad o bondad de una medida, y que es importante recoger para un curso usual de instrumentación electrónica, como en seguida se detalla.

Ya se han analizado los tres tipos de errores absolutos que entran en un proceso de medición de una magnitud física X:

• Error absoluto por escala del aparato: εescala (X).

• Error sistemático: εsistemático (X).

• Error accidental: εaccidnetal (X).

La combinación de los tres errores define la capacidad global del instrumento para dar mediciones de calidad. Los dos primeros son “estáticos” en el sentido de que estos son independientes de factores dinámicos, dependen de la fineza de los métodos técnicos o, mejor, de sus imperfecciones. El tercer tipo de error es “dinámico”, en el sentido de que depende más de factores que juegan distintamente en el tiempo, son por ello “azarosos”.

Entonces, cuando se diseña o se estudia un sistema de medición surgen varias preguntas: ¿cuál es la forma práctica de acotar los errores sistemáticos y los errores aleatorios en el proceso de medición? Para esto es necesario agregar tres nuevos conceptos al análisis cuantitativo de los instrumentos.

Tendencia: se relaciona con los errores sistemáticos

Precisión: se relaciona inicialmente con la dispersión de valores que se supone son iguales, es decir, describe la “repetibilidad” de los datos. Pero además está limitada por la resolución, o sea, la capacidad de discriminación del instrumento.

Exactitud: se relaciona con los valores verdaderos, dados por un estándar, a través del desarrollo de la calibración.

La tendencia o sesgo es un error sistemático de cualquier naturaleza, que funciona siempre en el mismo sentido y, por ello, es relativamente fácil de prever o corregir. La precisión cubre tanto errores absolutos accidentales como errores absolutos por escala, pues la repetibilidad tiene que ver con las fluctuaciones del fenómeno que se mide en cualquier parte de su recorrido, atribuidas a errores accidentales, o sea, guiados por lo fortuito del proceso. Pero también con el número de cifras significativas de los datos, lo cual viene limitado por la discriminación global de los sistemas técnicos que se utilicen.

La precisión puede ser prevista en su limitación por discriminación (o sea el número de cifras de una medición), pero no puede ser descrita determinísticamente, ya que en esta juega el azar para limitarla. Solo son posibles estimaciones estadísticas.

Para la determinación de la precisión, o sea la definición de la fineza de los datos y su repetibilidad, se deben analizar las imperfecciones asociadas con los procesos de amplificación, o sea, los ruidos, fluctuaciones e interferencias de todo tipo vinculadas con el fenómeno o su entorno.

La exactitud significa que los datos son a la vez precisos y verdaderos, esto no es un juego de palabras, puesto que un instrumento “descalibrado” (una aguja del metro de un voltímetro doblada, por ejemplo) puede ser preciso (repetible y con gran discriminación), pero no será “verdadero”. En cierta forma, la exactitud tiene que ver con un sesgo (tendencia con respecto a un valor verdadero). Industrialmente se manejan las normas DIN EN 60751 o IEC751, así como ITS-90. En estas se define la exactitud y la precisión de una manera más clara:

The “accuracy” of an instrument is defined as the difference between the “true value” of the measurand and the “measured value” indicated by the instrument in reference to some absolute or agreed upon standard.

The size of the grouping is determined by random error sources and is a measure of the “precision” of the shooting (JCGM, 2008: 21-22).

Existen entonces tres conceptos muy usuales acerca de las mediciones que necesitan ser bien comprendidos: discrimination, precision y accuracy. De estos tres, existen dos que son a menudo usados indistintamente, y esto constituye un pequeño error, pues bajo la norma son conceptos diferentes, ¿cuál es la diferencia? Un ejemplo sobre los conceptos se expone en el siguiente caso:

Sea un partido de fútbol con definición por tiros desde el punto penal. Teniendo como arquero a Julio César, uno de los mejores del mundo, se conoce que la mayor posibilidad de gol es apuntando a la esquina del arco. En la figura 14 se muestra la estadística de los últimos tiros que cada jugador ha realizado. La pregunta es simple, ¿por cuál jugador te arriesgas? En ese orden de ideas, ¿cuál es más preciso y cuál es más exacto?

Figura 14. Exactitud y precisión en el fútbol


Fuente: elabor ación propia.

Si consideramos que Cristiano ha metido más goles, diríamos que nos la jugamos por este cobrador, pero la probabilidad de que el portero tape o que el cobrador bote el cobro es relativa. Con Gaucho sabemos con seguridad que no lo va a hacer, pero si le decimos que “baje” un poco el tiro o en un instrumento lo calibramos, será más efectivo su cobro. En general, el más exacto es Ronaldo, pues su media se acerca más al valor deseado, y Gaucho es el más preciso, dado que su dispersión de datos respecto de la media o su variación estándar es menor que la de Cristiano (figura 15):

Figura 15. Precisión y desperdigamiento de los datos


Fuente: elaboración propia.

Otro factor, según la norma, corresponde a discriminación. Cuando hacemos una medición, el pequeño incremento que puede ser discernido es llamado discrimination (discriminación). El término resolution (resolución) sigue siendo utilizado en los libros como una forma de reportar una medida de discriminación. Teniendo en cuenta que es más deseable tener un sensor más preciso para el caso de una medida única, y que se pueda calibrar, procederemos a analizar el proceso de calibración.

Curva de calibración

Es el proceso técnico por medio del cual se establece aproximadamente la exactitud de la medición y parte de su precisión (aquella que tiene que ver con la dispersión de los datos).

La calibración es el proceso de definir aproximadamente la tendencia y parte de la precisión.

Para fijar las ideas, se darán ejemplos gráficos para luego formalizar el concepto. Sea un determinado instrumento cuya salida es leída y registrada (ordenada). Asimismo, sea un patrón (estándar) cuya lectura se toma como guía de la medición. Supóngase un primer caso en cuanto a que el proceso sea “exacto”, pues los valores están situados a lo largo de una línea a 45°, enlazando los 2 grupos de valores, pero, además, caen “exactamente” en la línea (figura 16).

Figura 16. Mediciones exactas comparadas con un patrón


Fuente: elaboración propia.

Sea otro instrumento no tan perfecto como el anterior en el que los pares de valores caen alrededor de la línea pero no “exactamente”. Esto implica una dispersión de la medición (figura 17).

Figura 17. Mediciones con dispersión


Fuente: elaboración propia.

Sea un tercer ejemplo en el que la línea está “corrida”, pero la dispersión de los datos es pequeña (figura 18).

Figura 18. Mediciones precisas pero inexactas


Fuente: elaboración propia.

Este tercer ejemplo es un sistema “inexacto” pero “preciso”, pues los datos tienen la misma discriminación (resolución), y su dispersión es nula, pero las lecturas del instrumento no concuerdan exactamente con las lecturas del patrón. Puede ocurrir un cuarto caso en el que no se tenga ni “exactitud” ni “precisión” (en cuanto a la dispersión), así la resolución del sistema sea la misma que en los casos anteriores.

Entonces, el análisis de las lecturas del instrumento relacionadas con las lecturas del patrón puede dar información muy valiosa con respecto a la operación del sistema de medición. Aquí hay que hacer una aclaración que en la mayoría de los textos de instrumentación no se hace, y es la naturaleza del patrón. Normalmente, cuando se piensa en “calibración”, se idealiza un cuarto aislado con temperatura controlada y un equipo muy sofisticado que aporta los valores de referencia.

Esta idea ciertamente algunas veces se cumple, pero otras veces no. Esto es muy importante de comprender, el que a veces el patrón no es posible obtenerlo “puro”, pues a menudo este no se puede idealizar y hay que referirse directamente al sistema físico que se quiere medir (figura 19).

Figura 19. Sistema de medición real, no ideal


Fuente: elaboración propia.

Un proceso físico puede tener poca o mucha fluctuación, esto depende de la magnitud de la cual estemos hablando. Así, por ejemplo, un cauce natural puede tener una uniformidad térmica relativamente pareja, pero las zonas de alta y baja velocidad macroscópica de sus moléculas pueden ser muy desiguales.

Además, están las influencias no consideradas por ser específicas externas con importancia en uno u otro contexto; por ejemplo, en un cauce dado, la incidencia de la luz solar puede agregar ruido de alta frecuencia a la medición hecha por un medidor de flurescencia, lo cual no es importante en las mediciones de la concentración de las partículas si estas se hacen con un conductivímetro. Es decir, cada proceso tiene sus particularidades, y también métodos adecuados de medición. Entonces, la curva de calibración va a mostrar los defectos de la operación estática del instrumento de la siguiente manera:

A. Errores sistemáticos

Mostrará tendencias o sesgos (bias), bien sea por intersección errónea (diferente del punto (0,0)), por pendiente equivocada (curva a un ángulo diferente de 45°) o por segmentación no homogénea (problemas por rangos) (figuras 20 y 21).

Figura 20. Caracterización de un error sistemático por corrimiento en el origen


Fuente: elaboración propia.

Figura 21. Error sistemático por pendiente errónea


Fuente: elaboración propia.

B. Errores accidentales

Por el hecho de estar afectada por fluctuaciones o variaciones accidentales derivadas del proceso de medición específico, la curva será simplemente una interpolación a veces no muy representativa del conjunto de valores. En la figura 22 se ilustra este caso:

Figura 22. Error sistemático en un rango de la variable


Fuente: elaboración propia.

En cualquiera de los casos, el instrumento arrojará mediciones no fidedignas que es necesario cuantificar dentro de sus especificaciones metrológicas.

Linealidad de la curva de calibración

Un problema que ocurre muy a menudo es que los transductores en sí mismos no tienen características lineales y, por lo tanto, esto se refleja en la curva de calibración. Cuando esto ocurre, es conveniente definir rangos lineales en los cuales puede ser operado el instrumento. En este caso hay que tener cuidado de no solapar dos rangos con linealidad diferente (diferentes pendientes) (figura 23).

Figura 23. Errores diferentes en rangos diferentes


Fuente: elaboración propia.

Como se explica en este texto, los sensores no lineales se pueden trabajar mejor mediante esquemas de retroalimentación negativa (linealización por efecto de reacción negativa) o de puentes de pequeño rango (figura 24).

Figura 24. Curva de calibración no lineal


Fuente: elaboración propia.

Ahora es necesario establecer un procedimiento matemático para definir la no linealidad de la curva de calibración estática de un instrumento. Un método muy sencillo de entender y aplicar es el de “máxima desviación sobre el alcance (rango) del instrumento”, tal como se muestra a continuación (figura 25).

Figura 25. Caracterización numérica de la no linealidad


Fuente: elaboración propia.


Жанры и теги
Возрастное ограничение:
0+
Объем:
589 стр. 566 иллюстраций
ISBN:
9789588939735
Издатель:
Правообладатель:
Bookwire
Формат скачивания:
epub, fb2, fb3, ios.epub, mobi, pdf, txt, zip

С этой книгой читают