CASOS PRÁCTICOS DE CALIDAD EN LA PRODUCCIÓN CARTOGRÁFICA

Servicio de Publicaciones de la Universidad de Jaén

Inicio | Prólogo | Presentación | Fe de erratas | Bloque 1 | Bloque 2 | Bloque 3 | Bloque 4 | Bloque 5 | Bloque 6 | Bloque 7
.
Prólogo
Presentación
Sobre los contenidos
Bloque 1
Bloque 2
Bloque 3
Bloque 4
Bloque 5
Bloque 6
Bloque 7
Fe de erratas

 

inicio > Bloque 4 > Caso 17 - Aplicación del estándar NMAS

Bloque 4 - Control de calidad posicional


CASO 17 - Aplicación del estándar NMAS

 


Descripción del trabajo a realizar


Ver libro, página 129.

 

 

Datos


Se proporciona la tabla 4.5 en la siguiente hoja de cálculo:

CPQC-17-NMAS.xls

 

 

Ejemplo


Ver libro, páginas 127 y 128.

 

 

Fuentes


National Map Accuracy Standards



Otras fuentes


Ariza, F.J. (2002). Calidad en la Producción Cartográfica. Ed Ra-Ma.
(Ver capítulo 6, dedicado a la componente posicional de la calidad)
(Disponible en la biblioteca de la UJA)

Enlaces:

US Army Corps of Engineers. Engineering and Design - Topographic Surveying.

Chapter 2 - Topographic Accuracy Standards

US Army Corps of Engineers. Engineering and Design - Geospatial Data and Systems.

Chapter 11 - Accuracy Standards for Engineering, Construction, and Facility Management Surveying and Mapping

 

 

Comentarios y recomendaciones


En esta práctica se van a comentar algunos aspectos de estadística que son comunes a otras prácticas de este mismo manual (18 y 19), pero que también son básicos para otras prácticas y otros muchos modelos de base estadística que se puedan formular. Estos aspectos son: verificaciones sobre la aleatoriedad, la eliminación de valores atípicos (outliers) y la comprobación de la normalidad de los datos.

Hay que advertir que los métodos de control posicional pueden presentar perspectivas distintas sobre la componente posicional. Para unos los cálculos se realizan para la componente horizontal (planimétrica o radial), y en otros se trabaja con cada una de las coordenadas (X, Y) por separado. En cada uno de los casos las comprobaciones se deberán orientar según la perspectiva propia del método de control.

Tradicionalmente se distinguen diversas tipologías de errores: groseros o equivocaciones, aleatorios y sistemáticos. Los primeros son, como su propio nombre indica, equivocaciones y por ello deben eliminarse y no entrar a formar parte de los análisis. Para que estos errores no ocurran se han de utilizar métodos que permitan realizar ciertos chequeos elementales para detectarlos y corregirlos. Un método clásico en el ámbito de la topografía eran los estadillos en los que se anotaban las observaciones de manera ordenada permitiendo ver de manera rápida los errores de cierre, etc. Otro ejemplo de error grosero es asignar las coordenadas de una observación a otro elemento realmente distinto del observado. Los errores sistemáticos suponen la existencia de un sesgo o sistematismo que afecta a todo el conjunto de datos, este sistematismo puede tener su origen en una descalibración del equipo, errores de desplazamiento en la cartografía base, condiciones climatológicas, etc. Si se descubre la existencia de estos errores se debe proceder a la eliminación de las causas y de su repercusión en los datos. Los errores aleatorios son los propios de la incertidumbre existente en todo proceso de media. En nuestra área de conocimiento se supone, en la mayoría de los casos, que los errores aleatorios siguen una distribución según una campana de Gauss, es decir, una distribución Normal. Estos errores no son eliminables pero si pueden ser reducidos por medio de procedimientos más precisos que permitan reducir la incertidumbre de las medidas.

Los valores atípicos son aquellos valores extremos (grandes o pequeños) que, tras comprobar que no son errores groseros, se pueden considerar pertenecen a la distribución aleatoria, si bien con un probabilidad de ocurrencia muy pequeña. En este caso la estadística clásica no funciona adecuadamente pues los atípicos influencia mucho los valores medios y desviaciones. Como consecuencia de ello se eliminan de la muestra de puntos a analizar mediante un proceso iterativo en el que se eliminan uno a uno. Se advierte que esta eliminación de la muestra no debe significar la eliminación de los mismos del informe. Para la eliminación se utiliza el criterio de m±3s.

La aleatoriedad es otra hipótesis básica de los análisis estadísticos. Se propone usar el método de Wald-Wolfovitz como forma de comprobación. Para desarrollar esta prueba se determina la mediana de la muestra y, sin ordenar los datos, se procede a clasificarlos como “+” ó “-“ según que estén por encima o debajo de la mediana. Se cuenta el número de rachas o paquetes de mases y menos (p.e.: en “+++-++-----+--+++” hay 7 rachas) y el número de mases y menos (p.e. en el caso anterior 8+ y 8-) y con estos valores se entra en la tabla apropiada (Tabla 12 del anexo de tablas). En dicha tabla se encontrará que para esta circunstancia el número de rachas debe estar en el intervalo [5, 12], como en nuestro caso hay 7, se puede considerar que la muestra sigue una distribución aleatoria.

La prueba de adherencia o seguimiento de la normal se puede realizar mediante el test de Kolmogorov-Smirnov (K-S). En este caso se determina la distancia máxima existente entre la función de distribución de frecuencias observadas y la correspondiente a la normal. Si la diferencia entre ambas distribuciones es inferior a la tolerancia dada por K-S se puede considerar que ambas distribuciones son iguales.

La operativa en este caso es la siguiente:

  • Se ordenan los datos observados de menor a mayor
  • Se tipifican
  • Se procede a crear la función de distribución de frecuencias observadas acumuladas. Cada dato aporta 1/n de frecuencia.
  • Para cada valor tipificado se determina la probabilidad acumulada que le correspondería según la función de distribución de frecuencias de la N(0,1) (valor teórico)
  • Se determina la máxima diferencia entre los valores observados y teóricos (en valor absoluto).
  • Se comprueba si el valor es menor que la tolerancia (ver tablas 13 ó 14 del anexo de tablas).