Anónimo
Anónimo preguntado en Ciencia y matemáticasFísica · hace 10 años

¿En Física: cómo se calcula la precisión de instrumento?

No necesito la definición de precisión. Necesito saber lo siguiente: Un reloj de arena debe marcar 90 segundos. Se tomaron 5 mediciones con los siguientes resultados: 93' - 90' - 88' - 91' - 89'. ¿Cuál es la precisión de este reloj y cómo se calcula? Muchas gracias.

2 respuestas

Calificación
  • hace 10 años
    Respuesta preferida

    Claudia:

    Había visto esta pregunta cuando la formulaste pero no podía responder en ese momento. Guardé los datos y veo una respuesta de Fabián.

    Comentaré sobre ello luego de poner una respuesta propia.

    La precisión es un concepto, no un número, no se calcula pero puede indicarse a veces mediante una referencia numérica habiendo para ello distintos criterios y dependiendo del caso.

    Sin definirla debes saber que la precisión tiene que ver con la dispersión de las mediciones realizadas o con la aptitud del instrumento de medida de repetir los valores medidos cada vez que se mide el mismo valor real del parámetro a medir.

    En nuestro caso (la pregunta) desde esa óptica da lo mismo que el tiempo real sea 90 segundos u 80 segundos para el conjunto de medidas obtenidas. Si todas las veces hubiese marcado 85 el reloj sería de una precisión extraordinaria, porque es capaz de medir siempre el mismo valor. Que no mida 90" significa que no es EXACTO pero eso indicaría la aptitud del instrumento de medir el valor real, en cambio la precisión es que cada vez que mida la misma variable las distintas medidas obtenidas tengan poca o nula dispersión.

    Por ello la medida más simple de la precisión en el caso dado es:

    R = máx (T) medido - mín (T) medido

    R = rango = 93" - 88" = 5"

    ===================

    Nota que no lo llamo precisión sino rango, pero digo que a menor rango de medidas el instrumento es más preciso. También se nota que NO tomamos el valor real de 90".

    (Aclaración, como pusiste "segundos" tomo los valores en segundos, pero al poner un apóstrofe en realidad estarías indicando minutos, eso es una inconsistencia en el enunciado)

    (90' => 90 minutos

    90" => 90 segundos)

    Otro parámetro estadístico que puede usarse es el desvío o desviación estándar y se obtiene como:

    S = √ [ ∑ (Ti – Tm)² / n ]

    siendo:

    Ti = tiempo medido, la i es un subíndice para diferenciar cada valor medido

    (por ejemplo: T1 = 93”, T2 = 90”, T3 = 88”, etc.)

    Tm = es el tiempo medio o promedio de las mediciones

    Tm = ∑ (Ti) / n = 90.2" en nuestro caso.

    n = número de mediciones

    El desvío estándar es el valor cuadrático medio de las diferencias Ti-Tm.

    En este caso tenemos:

    Tm |. Ti .| Dif |. Dif ²

    ------+-----+-----+--------

    90.2 | 93 | 2.8 | 7.84

    90.2 | 90 |-0.2 | 0.04

    90.2 | 88 |-2.2 | 4.84

    90.2 | 91 | 0.8 | 0.64

    90.2 | 89 |-1.2 | 1.44

    ------+-----+-----+--------

    Sumatoria . . . 14.8

    Dividido n=5 . . 2.96

    ------ ----- ----- --------

    Raíz cuadr. S=1.72

    No lo quiero complicar mucho, pero S en realidad es un estimador del desvío estándar y no el desvío estándar en sí. Tomemos como si lo fuese (al desvío estándar se lo llama con la letra griega minúscula sigma => σ) entonces podemos decir que a menor σ es MAYOR la precisión.

    Nuevamente depende de la dispersión sin considerar el valor real Tr = 90", lo que sucede acá es que Tm=90.2" es muy aproximado a Tr=90", pero eso indica exactitud y no precisión.

    Una referencia para lo hablado está en wikipedia, y una imagen:

    http://es.wikipedia.org/wiki/Archivo:Accuracy_and_...

    (donde dice accuracy, es la exactitud, la figura con nombres en inglés está en el artículo en castellano así) => http://es.wikipedia.org/wiki/Precisi%C3%B3n_y_exac...

    Finalmente, en los estudios por muestreo se llama precisión a la probabilidad de que en un cierto rango de valores no esté el valor real medido. Si las medidas tienen una distribución normal (la campana de Gauss mostrada en el otro dibujo), calculamos la media:

    µ = Tm = 90.2" en nuestro caso

    y el desvío estándar:

    σ = S = 1.72"

    si queremos saber la probabilidad de que la medida real esté en el intervalo µ±2σ por estadística sabemos que es aprox. 95% (a eso se le llama nivel de confianza de la medición) y la precisión se considera de:

    100% - 95% = 1 - NC = 5%

    Pero no es el caso aparentemente que te puedan pedir para la pregunta esta.

    Yo tomaría lo más simple => el rango.

    Volviendo a la respuesta de Fabián, la misma está bien, y en mi borrador cuando no pude enviar la mía estaba escrito esto: <<En ciertos instrumentos se la considera la menor división del mismo y se dice por ejemplo. “la precisión del mm” para indicar que al medir algo si tengo 230.3 mm (por ejemplo) medidos con una regla milimetrada podría tener 230 mm o 231 mm pues ese es mi margen de error ya que menos de eso yo “estimo” la medida.>> que es lo que él dijo aproximadamente.

    Espero que te sirva y no haberte mareado.

    Saludos.

    Suerte y buena semana.

    .

    .

    .

  • Anónimo
    hace 10 años

    no se calcula, se mira el instrumento y la Precision es lo mínimo que se puede medir con él. por ejemplo en una regla común de las que llevas al colegio la Precision es de 1 mm que es la menor medida que marca el instrumento... en este caso da la impresión que el reloj marca de a un segundo por los valores observados, así que yo diría que la precision es 1

¿Aún tienes preguntas? Pregunta ahora para obtener respuestas.