Читать книгу: «Metodología básica de instrumentación industrial y electrónica», страница 2

Шрифт:

Aplicaciones de la instrumentación

Hoy en día los sistemas de medición están lejos de ser sistemas stand alone (autónomos), por el contrario, actúan integrados en lazos cerrados en los que se aplican los principios del control basado en programas y, haciendo un seguimiento en tiempo real de los eventos industriales, esto se puede apreciar en la figura 7.

Figura 7. Operación integrada de un instrumento


Fuente: elaboración propia.

Este tipo especial de interrelación implica varios temas especiales que no tiene un sistema de medida stand alone. En primer lugar, las características propias del sistema de medición (el llamado instrumento electrónico) imponen ciertas limitaciones al sistema global, pero además, la acción propiamente dicha del proceso impone adicionalmente otras limitaciones (bien sea por propiedades dinámicas inherentes e insoslayables, o por defectos e incertidumbres en su modelación o su calibración). Esto hace que todos estos elementos en proyectos complejos deban ser tomados en conjunto. Parte fundamental de la tarea del ingeniero de instrumentación electrónica es identificar y tratar la totalidad de estos factores. Particularmente importante es la definición y caracterización de errores en la instrumentación, pues estos delimitarán en primera instancia la capacidad de un determinado instrumento para cumplir con idoneidad una tarea específica.

Enfoque moderno de la instrumentación

Como se ha explicado repetidamente, hoy en día un sistema de medición no puede concebirse únicamente como instrumento, sino que debe incluir la propia identidad del método de medición. Cada método se caracteriza por una forma específica de convertir la energía del proceso en energía utilizable (eléctrica u óptica) dentro del instrumento. Existen tanto métodos de medición como principios físicos de conversión de la energía. Cada principio físico de conversión tiene asociada:

• Una sensibilidad que define una discriminación de los pasos más pequeños de la magnitud que se convierte.

• Un nivel de ruido o fluctuación propia de la naturaleza del proceso, o del estado termodinámico en el cual se encuentra.

Las dos anteriores características no son independientes la una de la otra, y, por el contrario, la segunda muchas veces condiciona la primera. Así, aunque un principio físico de conversión de energía sea muy sensible, si este está asociado por cualquier circunstancia con un nivel alto de fluctuación, la calidad de la medición se degradará, y, a veces, se hará necesario cambiar de principio, por otro que, aunque no sea tan sensible, tenga un nivel de fluctuación más bajo, de forma que sea más aprovechable.

Una tarea básica de un diseñador de sistemas de medición es examinar las alternativas que se tienen para implementar la interfaz de medición (método de medida). Es necesario analizar los aspectos de sensibilidad y fluctuación.

Los ruidos presentes en un determinado método de medición no solo son fluctuaciones (o sea, variaciones indeseadas). Algunas veces estas imperfecciones de la medición tienen un carácter continuo, o sea, tienen un sentido. Errores con un sentido se denominan sistemáticos o errores por bias.

Selección del método de medición

Es necesario que el diseñador conozca apropiadamente las diversas alternativas de conversión de la energía del fenómeno que quiere caracterizar, para poder luego caracterizar la sensibilidad y la influencia de las fluctuaciones. Esto dependerá de factores como:

A. La especificidad del método de conversión escogido

Un método poco específico compite con varios efectos iguales o similares. Un método muy específico es aquel que no compite con efectos similares o iguales. Por ejemplo, cuando se miden trazadores (que consiste en el vertimiento súbito de solutos en un flujo para hacer un seguimiento posterior de la mancha que avanza en dicho flujo) se puede utilizar el método de medición de la conductividad (haciendo un vertimiento de una sustancia iónica como la sal común, cloruro de sodio) o el método de medición de fluorescencia (vertiendo una sustancia especial llamada rodamina). El primero debe competir con varias fuentes de sustancias iónicas en el flujo, mientras que si se utiliza rodamina, esta sustancia artificial es única, y, entonces, la sensibilidad es más alta en el segundo caso.2

Las fluctuaciones en ambos casos pueden ser comparables, solo que en el caso de la fluorescencia, la utilización de cubiertas opacas puede disminuir drásticamente esta influencia negativa. La fluctuación en muchos sistemas está ligada al estado termodinámico del sistema. Así, por ejemplo, si son fluidos, la turbulencia será una fuente muy importante de fluctuación.

B. La naturaleza propia del proceso de conversión

Dependiendo de las constantes físicas involucradas, o de las estructuras en uno u otro sentido, algunos procesos son más sensibles que otros, por ejemplo, la detección de temperatura es más sensible utilizando semiconductores que metales. Si se utiliza un fototransistor, la captación de señales luminosas será más sensible que si se utilizan fotodiodos.

En el diseño de instrumentos electrónicos participando en sistemas globales de medida, la selección de la interfaz del transductor toma una gran importancia, ya que allí se define el método de medición, y con este, la sensibilidad y las fluctuaciones asociadas.

Análisis de errores

Aunque típicamente este es un tópico que se estudia en la estadística matemática en relación con la técnica de tratamiento de datos físicoquímicos, para un ingeniero de sistemas de medición es un tema absolutamente esencial. A continuación, analizaremos diferentes aspectos relacionados con el análisis de errores en instrumentación.

Errores en la operación de instrumentos

El diseño y la operación de instrumentos electrónicos tiene por objeto la toma de datos del mundo exterior, el cual, como sabemos, se modela mediante relaciones matemáticas que reflejan sus regularidades físicoquímicas. El manejo de datos de este tipo3 debe ser entonces un tema que en su esencia deben dominar los diseñadores de instrumentos para poder caracterizar adecuadamente los aparatos que proyectan y operan. Es, por lo tanto, muy importante que los ingenieros de diseño tengan una actitud crítica frente a los datos que recogen por medio de sus instrumentos, sabiendo cuál es el grado de confiabilidad con que pueden asumir estos datos.4

Infortunadamente, los datos provenientes del proceso exterior están contaminados de infinidad de fluctuaciones que obligan a aceptar una incertidumbre esencial, y que obligan también a la utilización de modelos probabilísticas para una cuantificación de la confiabilidad.

La inmensa mayoría de las magnitudes que se utilizan en los cálculos científicos son aproximadas: los pesos atómicos y los valores de las funciones termodinámicas, todas las propiedades físicas medibles y todas las características calculadas con base en estas. Además, casi todas las constantes puramente matemáticas (por ejemplo, ε y π), así como los resultados de las operaciones matemáticas (algébricas y trascendentes) son números para los cuales, en principio, no se puede establecer un valor exacto, y deberemos limitarnos a considerarlos compuestos solo de un limitado número de cifras significativas. Al ejercicio de considerar o calcular el número apropiado de cifras significativas para un dato físico se le llama redondeo. No obstante, la operación de todo instrumento está sujeta a la presencia de errores; por tanto la identificación y la cuantificación de estos errores es una tarea primordial del diseñador de los instrumentos electrónicos.

Errores absolutos y errores relativos

Al redondear un dato a un número dado de cifras significativas se comete un error absoluto, como se muestra a continuación:


Aquí A es el valor exacto del dato físico y a es el valor aproximado (redondeado) de ese mismo dato. El error absoluto se llama ε. Estas relaciones usualmente se escriben como:5


Ejemplo 1:

Se mide la temperatura con un termómetro que tiene una precisión de ± 0,1 ºC, y la lectura es de 20 ºC. El dato deberá expresarse como:


El error absoluto es una primera forma de efectuar una crítica sobre la inexactitud de las medidas que el experimentador hace. Hay una forma mejor que es definir el error relativo, como se hace en la siguiente ecuación:


O en su versión porcentual:


Ejemplo 2:

Supóngase que se mide un voltaje con un voltímetro lineal cuyas separaciones (divisiones) se hacen cada tres voltios y su máximo voltaje (escala) es de 300 V. Si se supone que a simple vista el experimentador puede distinguir la mitad de una división, entonces su error relativo será:


Ahora, si mide un voltaje de 75 voltios, su error relativo será:


Esto quiere decir que, aunque se tiene el mismo error absoluto, los errores relativos son diferentes para cada posición de la escala.

Redondeo de números

Un tema de fundamental importancia en un curso de diseño de instrumentación es el de la caracterización (o especificaciones) de los instrumentos, toda vez que un equipo de medición muestra por definición en su pantalla un número limitado de cifras. Para realizar esto, se recurre a la definición de errores que afectan la medición.

Todo número (dato) con una cantidad finita de cifras significativas tiene asociado un error absoluto específico, y todo error absoluto definido en una medición arrojará un dato con un número finito de cifras significativas.

Se ha dicho que el experimentador debe limitar el número de cifras significativas de la presentación que haga de los datos de sus instrumentos. Para ello, hay que definir algunos conceptos pertinentes:

Cifra significativa: es toda cifra del 0 al 9 que represente un resultado de medición en cada posición decimal.

Así, entonces, no son cifras significativas los ceros cuya función es indicar la posición decimal, o sea, los ceros a la izquierda, por ejemplo: N = 0,0003102. En este número, los cuatro primeros ceros son no significativos, pues su única función es indicar las posiciones decimales. En cambio, los demás números, incluido el cero en la sexta posición, son significativos pues ponderan (miden) cada posición. En el caso del cero en la sexta posición, se quiere significar que la medición allí fue cero.

Es importante entonces saber que la información en el dato viene dada esencialmente por sus cifras significativas, pero que esas cifras pueden estar situadas en cualquier segmento de la serie numérica que en general lo definen:

10234012000000,1

102340120000001000000000000,0

En el caso anterior, los dos datos tienen las mismas cifras significativas pero están en diferente posición, por lo tanto, son datos diferentes. Para completar la descripción de cada dato, de forma que podamos aislar sus cifras significativas, se utiliza la notación científica, usando exponentes de 10:

1,02340120000001 × 1013

1,02340120000001 × 1025

Las cifras significativas son las mismas pero no sus exponentes. Se ha dicho también que cuando un número se presenta con una cantidad limitada de cifras significativas, este número redondeado tiene asociado un error absoluto. En este punto es importante estimar los errores absolutos (y relativos) de números redondeados.

Cifra exacta: es toda cifra en relación con la cual, después de una operación de redondeo (o sea, de limitar el número de cifras significativas en un dato numérico), su conservación no implica ningún error en esa posición, de acuerdo con la regla.

Cifra falsa: es toda cifra en relación con la cual, después de una operación de redondeo, su conservación implica un error en esa posición, de acuerdo con la regla.

Muchas veces el redondeo se hace imperfectamente. Cuando se hace un redondeo óptimo solo se conservan las cifras exactas y algunas veces se incluye la cifra dudosa. Por otra parte, para redondear un número se debe conocer su error absoluto, o inversamente, una cifra que esté redondeada tiene asociado automáticamente un error absoluto. En seguida se da la regla de redondeo.

Un número óptimamente redondeado conserva cifras hasta la posición “n-ava” (última en conservarse), si el error absoluto es menor o igual que 0,5 en ese lugar.

Para entender esta regla, se define en primer lugar la expansión decimal del dato, partiendo de que m sea el exponente decimal de la primera posición encontrada, y n el orden de cada posición decimal, en sucesión natural, hasta la posición mayor conservada:


La regla anterior se expresa entonces como:


Ejemplo 3:

Un voltímetro usado para leer datos que simulan temperatura da una lectura de 18,2 voltios. Establecer cuál es su error absoluto.

Respuesta:

Interpretemos, en primer lugar, adecuadamente, la fórmula (5), la cual quiere decir realmente lo siguiente:


O sea, en la primera posición decimal, a m se resta cero y a la posición n se resta (n – 1) a m.6 Entonces, establezcamos el dato específico en función de la fórmula (5).


Lo que implica que:7


Entonces, si α3 es la última cifra conservada (o sea, “cierta”), con m = 1 y n = 3, el error absoluto correspondiente según la fórmula (6) es:


Por lo tanto, el número en la pantalla debe escribirse completo como:


Ejemplo 4:

Un voltímetro usado para leer datos que simulan temperatura da una lectura de 18,9 voltios. Establecer cuál es su error absoluto.

Respuesta:


Lo que implica que:


Entonces, si α3 es la última cifra conservada (supuesta cierta), con m = 1 y n = 3, el error absoluto correspondiente según la fórmula (6) es.


Por lo tanto, el número en la pantalla debe escribirse completo como:


Nótese cómo independientemente del propio valor de la última posición, la regla sigue siendo válida.

Ejemplo 5:

Si en la constante h de Planck el error absoluto es de ± 0,00027 × 10–27 ergios, y el dato que se tiene es de 6,6237712 × 10–27 ergios, establecer un redondeo óptimo.

Respuesta:

El error absoluto (en su parte significativa) se puede a su vez redondear como ± 0,0003 (es decir que el error se redondea de manera que números mayores a 5 se suben una unidad). Esto se puede representar como:


O sea:


Entonces, si m = 0 (ya que el número comienza con unidades), m - n + 1 = –3, o sea, n = 4. Esto quiere decir que se conservan cuatro cifras “exactas” comenzando desde la primera (n = 1). En este caso, el número se escribe como:


Se presenta enseguida un cuadro en el cual, para un número dado de cifras significativas conservadas, se muestra el error relativo asociado (tabla 1).

Tabla 1. Relación aproximada entre el número de cifras redondeadas y el porcentaje de precisión


Número de cifras significativas conservadas (redondeadas) Ejemplo δ %
1 0,1 50
2 7,2 5
3 6,31 0,50
4 5,321 0,05

Fuente: elaboración propia.

Es de enfatizar que en la práctica científica usual, conservar tres cifras significativas en los datos de los instrumentos se considera satisfactorio, salvo en ciertos experimentos en los cuales la precisión debe ser mayor. Lo anterior implica que usualmente es satisfactorio trabajar con un 0,5% de precisión.

Naturaleza de los errores

Los errores que afectan la operación de un instrumento electrónico son de dos clases:

• Errores internos, provenientes de la limitación de la capacidad discriminatoria del instrumento (error por escala), y errores asociados con la limitada capacidad que se tiene en el proceso de calibración (errores sistemáticos).

• Errores externos, asociados con la naturaleza casual de los fenómenos físicos (error aleatorio).

A. Errores internos:

Son errores que limitan de entrada el número de cifras significativas en un proceso de medición, o sea, que limitan la máxima precisión que puede establecerse en una medición.

Un sistema instrumental no puede tener una mejor precisión que el error Δ interno.

Se define como:


A1. Error por escala

Comprende no solo la capacidad de discriminación de un menor valor por el despliegue (ya sea análogo o digital), sino la capacidad de manejo de la señal en comparación con el ruido en los pasos de tratamiento de la señal. Una señal dada puede ser discriminada en pasos cada vez más pequeños si el ruido inherente al sistema se va disminuyendo proporcionalmente. Para determinar este error es necesario establecer un estudio de la propagación del error en la entrada hasta la salida y verificarlo con métodos de calibración (figura 8).

Figura 8. Error por escala en un sistema de medición


Fuente: elaboración propia.

A2. Error sistemático

Comprende todas aquellas imperfecciones, ya sean materiales o abstractas, que limitan un proceso de calibración y permiten tener lo que se llama un corrimiento en la operación del instrumento. La característica de este tipo de error es que se puede identificar un signo (+ o −). Entre las limitaciones materiales están los “corrimientos” naturales de los diferentes componentes que constituyen el sistema instrumental.8 Por otro lado, entre las limitaciones abstractas están la cantidad limitada de cifras significativas de las ecuaciones que describen las leyes físicas u operativas utilizadas en el diseño del instrumento. Para identificar y describir estos errores, se debe utilizar un procedimiento de calibración detallado en el tiempo. A veces este procedimiento es sumamente difícil y costoso. Los errores sistemáticos son aquellos que siempre actúan en un solo sentido (aunque puedan ser cambiantes o variables). En los sistemas instrumentales un error sistemático puede ser la no liberalidad de los transductores, que son defectos que siempre juegan o sumando o restando, pero sin combinar estos dos efectos (a este tipo de problema a veces se le da el nombre de bias). Es claro que los errores sistemáticos pueden presentarse tanto en el propio instrumento, como en el medio ambiente que se mide, así como en el propio observador.

B. Errores externos9

Se llaman así porque generalmente están asociados con el devenir del proceso externo que se mide, y aunque no hagan parte del esquema interno del aparato de medida, sí se deben tener en cuenta, ya que su presencia deteriora grandemente la calidad global de la medida (figura 9).

Figura 9. Deterioro de la calidad de una medida por fluctuaciones


Fuente: elaboración propia.

Normalmente son errores azarosos o casuales, en los cuales no es posible establecer un lazo determinante de causalidad. Son aquellas variables que aparecen en la estadística matemática bajo el nombre genérico de variable aleatoria. Su aparición puede estar ya sea dentro del propio proceso en forma de fluctuaciones al azar o dentro del proceso de calibración en el cual, generalmente, se incluye la influencia del propio sistema por medir, si lo que se quiere es tener un sistema lo más fielmente representativo de la realidad que se busca medir en dicho sistema.

En términos generales, según se demuestra en la estadística matemática,10 el error aleatorio puede ponerse como función del número de muestras n, así:


Y su comportamiento es como sigue: para la caracterización apropiada de los errores aleatorios hay que tener en cuenta los desarrollos realizados en una rama de las matemáticas denominada teoría de la probabilidad, que abarca el estudio de las variables aleatorias.

Desde hace mucho tiempo (Gauss, Le Moivre, etcétera), el estudio de los juegos de azar, así como el de los errores de las mediciones, se estudia como un componente casual regido por ciertas leyes generales de los eventos igualmente probables e independientes.

Se conoce también lo que se llama el postulado de la estabilidad de las frecuencias que nos dice que un experimento, considerado como un caso particular de un número infinito de sucesos equivalentes, es una variable aleatoria, pero que en el límite, cuando se han agotado todas las posibles salidas, es un valor completamente determinado (ley de los grandes números). Es decir, hay algo que deviene cada vez más y más constante en tanto el número de experimentos equivalentes se haga cada vez más numeroso (figura 10).

Figura 10. Comportamiento de los errores en función del número de experimentos


Fuente: elaboración propia.

Es importante recabar aquí que cuando se realiza una medición que está afectada por errores accidentales como los explicados antes, la utilización de la media aritmética como representación más probable del proceso de muestreo es esencial desde el punto de vista del modelo conceptual que se utiliza para interpretar los resultados de un proceso de medición. Un muestreo es la captación de un pequeño conjunto de valores de una magnitud dentro de un gran conjunto ideal de todas las mediciones. El proceso de medición, en tanto es uno de muestreo, va de lo particular a lo general y lleva implícito, por tanto, una incertidumbre fundamental (figura 11).

Figura 11. Proceso de muestreo: de lo particular a lo general


Fuente: elaboración propia.

La media aritmética será un atributo del subconjunto muestreado, pero representante en algún sentido de toda la población de elementos (teóricamente infinita). Entonces, en un sistema de control automático en el cual se deba incluir una instrumentación electrónica, es necesario estudiar detenidamente cómo actúan los diferentes errores.

Un grupo deberá ser enfocado al instrumento propiamente dicho (que así se constituirá en una limitación esencial del sistema). Luego es necesario establecer cómo se desarrolla el proceso en sí mismo, o sea, de qué manera las diversas mediciones van reflejando fluctuaciones, que en ciertos casos podrán constituirse en un error mayor, incluso que el propio error instrumental. De todas formas, las fluctuaciones del proceso bajo medida deberán tomarse en cuenta como una propiedad inherente del sistema que el ingeniero debe trabajar.

Жанры и теги
Возрастное ограничение:
0+
Объем:
589 стр. 566 иллюстраций
ISBN:
9789588939735
Издатель:
Правообладатель:
Bookwire
Формат скачивания:
epub, fb2, fb3, ios.epub, mobi, pdf, txt, zip

С этой книгой читают