MEDICION
Operación de la medición consiste en dar valores a los fenómenos
que interesan en el marco de un planteamiento geográfico. Por una
parte, sirve inicialmente para caracterizar los atributos de los
objetos que se estudian y entonces se emplea al comienzo de todo
tratamiento.
Por otra parte, interviene al final para caracterizar formas espaciales,
describir la naturaleza y la intensidad de relaciones, calificar semejanzas,
etc. En el primer caso la medición está inserta en la fase de adquisición de
los datos e informaciones necesarios para tratar la cuestión estudiada.
Estas informaciones provienen, ya sea de fuentes estadísticas de organismos
públicos o privados, ya sea de encuestas (relevamientos de terreno, sondeos, etc.).
En el segundo caso, se trata de la ayuda de mediciones apropiadas, de rendir cuenta
de resultados originados en tratamientos, estadísticos u otros.
PATRÓN DE REFERENCIA
•
Patrón de referencia Patrón, en general de la más alta calidad
metrológica, disponible en un lugar dado o en una organización
determinada, del cual se derivan las mediciones realizadas en dicho
• Patrón de trabajo
Patrón que se utiliza corrientemente para calibrar o controlar medidas
materializadas, instrumentos de medida o materiales de referencia.
NOTAS:
1. Un patrón de trabajo es habitualmente calibrado con un patrón de
referencia.
2. Un patrón de trabajo utilizado corrientemente para asegurar que las
medidas están realizadas correctamente se denomina patrón de control.
ESCALA DE MEDICION Y
LECTURA DE MEDICION
• La posibilidad de los mapas para mostrar detalles está
determinada por la escala. Un mapa con una escala
1:1.000 puede ilustrar detalles más precisos que otro a
una escala 1:25.000.
• La escala determina el tipo, cualidad y cantidad de los
datos.
•
Se debe elegir siempre la escala adecuada al nivel de
detalles requerido en el proyecto. Transformar la
pequeña escala de un mapa en otra más grande no
amentará el número de detalles o el nivel de precisión
de dicho mapa.
PRESICIÓN Y EXACTITUD
• Es aplicable tanto a la posición horizontal como a la
vertical.
• Exactitud y precisión están en función de la escala en la
que ha sido creado el mapa (impreso o digital). Los
mapas estándar empleados por el Servicio Geológico de
los Estados Unidos (USGS) especifican que:
• "se requiere una exactitud horizontal del 90 % en todos
los puntos tomados que deben de estar entre 1 y 30
pulgadas (2,54 y 76.2 cm) para mapas de escala
superior a 1:20.000 y entre 1 y 50 pulgadas (2,54 y 127
cm) para mapas de escala inferior a 1:20.000"
•
RESOLUCION Y SENSIBILIDAD
• La sensibilidad es el cambio mínimo que debemos
producir en el estímulo para observar una variación en la
respuesta, es decir, el umbral mínimo de detección, es
además la pendiente de la curva respuesta del
instrumento, donde la respuesta ha sido establecida
como lineal con respecto a la concentración, por ejemplo
dentro del rango lineal del método, y la intersección de
la curva respuesta ha sido determinada, sensibilidad es
un parámetro muy útil para calcular y usar en fórmulas
para cuantificar. Es un término contrario a robustez o
dureza
TOLERANCIA, ERRORES Y FUENTES DE
ERROR
• Máxima diferencia que se tolera o admite
entre el valor nominal y el valor real o
efectivo en las características físicas y
químicas de un material, pieza o producto.
ERRORES
• errores cometidos en la medida de una
magnitud debidos al método empleado, a los
instrumentos utilizados o al propio
experimentador.
• El error cometido en la medida de una magnitud
es igual a la diferencia x′ - x entre el valor
encontrado, x′, y el valor verdadero, x. Si el error
es positivo se habla de error por exceso y si el
error es negativo se dice que es error por
defecto.
TIPOS DE ERROR
• Los errores pueden ser accidentales o
sistemáticos. Los primeros son debidos a
variaciones en las condiciones experimentales.
Pueden ser tanto por exceso como por defecto y
se compensan realizando varias medidas y
tomando el valor medio de las mismas. Los
errores sistemáticos afectan a la medida
siempre en el mismo sentido. Están producidos
por un funcionamiento incorrecto del
instrumento o por un método no adecuado de
medida. En general, estos errores pueden ser
corregidos.
• Independientemente de estos tipos de errores se
definen los conceptos de error absoluto y error relativo
de una medida.
•
El error absoluto es la diferencia entre el valor medido y
el valor verdadero; posee las mismas unidades que la
magnitud que se mide.
• El error relativo es el cociente entre el error absoluto y el
valor de la medida; es un número adimensional y se
suele expresar en tanto por ciento.
• Una medida es tanto más precisa cuanto menor sea su
error relativo.
Descargar

Diapositiva 1