Características Estáticas de los Instrumentos de Medición

 Características de los instrumentos de medición

Los instrumentos de medición hacen posible las observación de los fenómenos y su cuantificación, sin embargo, se debe tener en cuenta que estos instrumentos no son ideales sino reales, y por lo tanto, tiene una serie de limitaciones que se deben analizar para saber si afectan de alguna manera las medidas que se realizan, y así mismo determinar la veracidad de estas.

Existen dos tipos importantes de características, estáticas y dinámicas, en este caso nos enfocaremos en las de tipo estático.

Características estáticas

Las características estáticas en los instrumentos de medición describen el comportamiento del instrumento en un estado estacionario o constante, es decir, sin cambios en la magnitud medida. 

Algunas de las características estáticas son:

Curva de calibración

Es la relación entre la entrada del sensor y su correspondiente salida, es decir, es la línea que une los puntos obtenidos de la curva de calibración de un sensor o de un sistema de medida aplicando sucesivos valores de la magnitud de entrada con sus respectivos valores de salida. Permiten obtener una relación directa punto a punto de la señal de salida en función de la entrada y viceversa.

Campo o margen de medida (range)

Se refiere al rango de valores de la magnitud que puede ser medida. Este rango se define como el intervalo entre los valores mínimos y máximos de la magnitud que el instrumento puede medir con una precisión específica.

Por ejemplo, si un termómetro está diseñado para medir temperaturas entre -50°C y 150°C entonces su campo o margen de medida sería -50°C a 150°C.

Alcance o fondo de escala (span, input full scale)

Es la diferencia entre los valores o límites superior e inferior del instrumento de medición.Por ejemplo, el termómetro que tiene un campo o margen de medida de -50°C a 150°C tendría un alcance o fondo de escala de 200°C.

Salida a fondo de escala (full scale output, FSO)

Se refiere a la diferencia entre las salidas para los extremos del campo de medida.

Sensibilidad (Sensivity)

Es una medida de la relación entre la magnitud de entrada y la señal de salida del instrumento. En términos generales, se refiere a la capacidad de un instrumento para detectar y medir pequeñas variaciones en la magnitud de entrada.

La sensibilidad se puede determinar como la pendiente de la línea que relaciona la entrada y la salida del instrumento. Una mayor pendiente indica una mayor sensibilidad, mientras que una pendiente más baja indica menor sensibilidad.

No linealidad (nonlinearity)

Es la máxima desviación de la curva de calibración con respecto a la línea recta por la que se ha aproximado. Habitualmente se suele expresar en forma de % con respecto al alcance. De igual manera, se le conoce como linealidad o error de linealidad. La linealidad expresa hasta que punto es constante la sensibilidad del sensor.


Zona muerta (dead zone)

Se refiere a una región del rango de medición de un instrumento de medición donde un cambio en la magnitud de entrada no produce un cambio correspondiente en la señal de salida. En otras palabras, es el rango de valores de entrada en el que el instrumento no es capaz de detectar cambios en la magnitud de entrada.

Histéresis (hysteresis)

Se refiere a la diferencia en la respuesta del instrumento cuando la entrada alcanza un mismo valor en sus diferentes direcciones, ya sea que aumente o disminuya.


Deriva (drift)

Es un cambio gradual y no deseado en la salida del instrumento a lo largo del tiempo, sin cambios en la entrada. La deriva puede ser causada por diversos factores, como cambios en la temperatura ambiente, envejecimiento de los componentes electrónicos, variaciones en la fuente de alimentación, entre otros.

Saturación (saturation)

Ocurre cuando la magnitud de la entrada excede el rango de medición del instrumento, En otras palabras, el instrumento no puede proporcionar una respuesta precisa o útil cuando la entrada está por encima de su capacidad de medición.

Resolución (resolution)

Se refiere a la menor cantidad de cambio en la magnitud medida que puede ser detectada por el instrumento. En otras palabras, es la cantidad más pequeña de cambio en la entrada que produce un cambio discernible en la salida del instrumento.

Por ejemplo, si un instrumento tiene una resolución de 0.1V, esto significa que el instrumento puede detectar cambios de magnitud en incrementos de 0.1V.

Errores

Error absoluto

Es la diferencia entre el valor medido y el valor exacto en valor absoluto. Por ejemplo, si el valor exacto de una magnitud es 20V y el valor medido es 19V, el error absoluto es de 1V.

Error relativo

Es la proporción del error absoluto en relación con el valor exacto. Por ejemplo, si el valor exacto de la magnitud es 20V y el valor medido es 19V, el error relativo sería 5% o 0.05.

Cuantificación del error

Veracidad (trueness)

Se refiere a la capacidad de que un instrumento de medición proporcione valores que se acerquen a un valor aceptado como referencia. Se suele expresar en términos de sesgo o desviación (bias).

Precisión (precision)

Se refiere al grado de concordancia entre los resultados. Este término se utiliza para definir la variabilidad entre los resultados. Se cuantifica a partir de repetibilidad y reproducibilidad.

Exactitud (accuracy)

Se refiere conjuntamente a la veracidad y la exactitud.


La precisión se cuantifica a partir de dos términos:

Repetibilidad (repeatability)

Se refiere a la capacidad de un instrumento de medición para proporcionar mediciones consistentes y repetibles bajo las mismas condiciones de medición. En otras palabras, la repetibilidad es la capacidad del instrumento para producir el mismo resultado cuando se mide la misma cantidad varias veces.

Reproducibilidad (reproducibility)

Se refiere a la capacidad de un instrumento de medición para proporcionar resultados consistentes en diferentes condiciones de medición. Es decir, se trata de la capacidad de un instrumento para proporcionar resultados similares cuando se utiliza para medir una misma magnitud en diferentes situaciones experimentales.

Calibración

La calibración de un instrumento es un proceso en el que se establece la relación entre las señales de entrada y salida del instrumento. Es decir, se intenta comparar las mediciones del instrumento con valores conocidos o de referencia y establecer una corrección para minimizar los errores de medición.

El objetivo de la calibración es asegurar que el instrumento de medición proporcione mediciones precisas y confiables.

Calibración a punto

Consiste en ajustar el instrumento para que la lectura en un punto específico coincida con un valor conocido y establecido de la magnitud que se está midiendo. Por ejemplo, si se está calibrando un termómetro, se puede sumergir en un baño de agua a una temperatura específica y ajustar el termómetro para que la lectura en ese punto coincida con la temperatura del baño. 

Calibración del cero y de la sensibilidad

Consiste en ajustar perfectamente una curva de calibración lineal, para esto es necesario ajustar dos puntos o un punto y la pendiente (sensibilidad). Algunos instrumentos incorporan esta posibilidad pero sin acceso al usuario, pero sí para el fabricante.

Gama y Escala

La gama de un instrumento de medición se refiere al rango completo de valores de la magnitud que puede medir de manera precisa.

Por otra parte, la escala se refiere a la subdivisión o graduación de la gama en valores más pequeños o unidades. 

Por ejemplo, el amperímetro de la izquierda tiene una gama de 0 a 5 mA, y una sola escala, mientras que el amperímetro de la derecha tiene una gama de 0 a 500 mA, dividida en 5 escalas, las cuales van respectivamente de 0 a 0.05 mA; de 0 a 0.5 mA; de 0 a 5 mA; de 0 a 50 mA y de 0 a 500 mA.

Amperímetro de 1 escala                                                                 Amperímetro de 5 escalas

Eficiencia

La eficiencia de un instrumento de medición se refiere a la capacidad del instrumento para realizar mediciones de manera precisa, rápida y confiable, minimizando la pérdida de energía, recursos o tiempo.

Se define como la indicación o valor medido del instrumento dividido por la potencia que absorbe del circuito para poder realizar la medición.

Comentarios

Entradas populares de este blog

Metrología

Introducción a la Instrumentación Electrónica