Creo que el tema es sensible, pero bueno, abramos la mente y pensemos por un momento sobre los engaños y mentiras de lo que se habla por allí.
En la conferencia Where 2.0 recién pasada fue presentado por parte de Jeffrey Johnson y David Riallant, ambos de Pict’Earth; (el primero desarrollador de aplicaciones web y el segundo profesional de la fotogrametría), la postura del trabajo que ellos hacen y del que habían hablado en el AGU Fall. Seguro que a muchos nos provoca una sensación similar a cuando debimos abandonar aquellos aparatos análogos por los híbridos y luego por los digitales.
Bien, gastémonos un rato a ver si nos confundimos más:
1. El procedimiento: simplificación
Básicamente el proceso busca hacer lo mismo que se hacía siempre, intentando dar solución a las limitantes de las "tecnologías" anteriores (porque eran tecnologías)… acortando los tiempos y equipos haciendo uso de "tecnologías de la información":
- Un pequeño avión a control remoto, que reemplaza la aeronave piloteada… sin tener que pensar en combustible, viáticos, piloto, permiso para sobrevolar etc. Con la posibilidad de tener una ruta trazada previamente.
- Un GPS con la capacidad de capturar latitud, longitud y altura… se supone que pueda tener una base terrestre contra la cual rectificar la precisión tomada "literalmente al vuelo"
- Una cámara digital con resolución de muchos megapixeles como para apodársele de "resolución alta" por aquello que los otros hablaban de micrones. Es claro, eliminando el problema de revelar negativos, escanearlos al micrón ye esas hierbas…
- Un sistema informático liviano que puede en un simple kml asociar la coordenada, con la captura y enviarla vía SMS a un operador terrestre que de forma semiautomática estira las imágenes en base a ciertos puntos de control salidos del territorio o de un modelo digital.
Nos queda la duda si tienen manera de obtener las condiciones instantáneas de la cámara, consecuencia de la inclinación del avión al momento de captura, conocidos como alaveo, cabeceo y rotación pero bueno… pasemos a lo siguiente
2. Lo bueno: ahorro en tiempo y costos
Es claro, la primera ganancia es el tiempo, sabemos que es un problema mayor de la metodología convencional; sobre todo si se hace por medio de un contrato a una empresa privada, dependiendo de la cantidad de territorio a cubrir o la ubicación geográfica a veces es necesario esperar el verano, y cuando no haya mucho humo producto de los incendios… que lata!.
Otra ganancia es que bajo el procedimiento convencional es imposible cubrir una región de 5 kilómetros cuadrados sin arriesgar el dinero y el peligro de hacer el ridículo. Por esta razón estas labores solo son alcanzables por instituciones gubernamentales, proyectos temporales o empresas grandes dedicadas e este tema.
En cuanto a costos, sabemos lo que esto cuesta (mucha plata), entre menos es la cobertura más alto el valor por kilómetro cuadrado. Adicionalmente en algunos países, los Institutos Geográficos Nacionales o los Departamentos de Seguridad deben autorizar el vuelo, por lo que hay que pagar una plata adicional hagas 10 fotografías o 100,000 y claro esto se suma a los costos
También en muchos casos se incluye el compromiso de entregar los negativos para que después los vendan ellos por debajo de la mesa a la empresa de la competencia o en última instancia que los costosos negativos vayan a parar a una bodega llena de cucarachas.
Si consideramos que bajo estos métodos nuevos se puede hacer vuelos en zonas específicas, con formas irregulares y sobre todo en coberturas pequeñas… sin tener que planificar un vuelo con trámites de aeronáutica, ni permiso por las pinches fotos que Google muestra de forma gratuita… seguramente saldrá más barato… al menos el vuelo porque los procesos de gabinete ya están casi automatizados.
3. Lo malo: la precisión no está sistematizada
Lo que huele mal en todo esto es que todos se centran en las fotos y el proceso digital de ortorectificarlas pero poco vemos que hablen de densificar de la red de triangulación existente o en muchos casos inconsistente. Tal parece que solo hablan de estirar el mosaico de imágenes en base a puntos reconocidos, pero ¿reconocidos donde?
Esto es delicado, pues las premisas no cambian con la adopción de tecnologías nuevas: "a menor densidad de red geodésica, menor precisión de los productos ortorectificados". Y no es que no haya propuestas formalmente patentadas para un proceso como este, aunque al extremo de la complicación sino que no vemos resultados de sus planes de mejora.
En el caso de la gente de Pic’Earth, ellos estiran las imágenes de modo que se ajusten a la data de Google Earth !!!, entendemos que para fines que los datos no se vean destrompados pues si los ubican donde corresponden, pueden salir como a 30 metros de desplazamiento. El problema entonces se centra que todo el material que esta gente genera, y que ha subido a Google Earth, tiene la misma imprecisión del amado globo virtual (2.50 mts relativo, 30 mts absoluta, no expresada y sin metadatos publicados). Y no es que todo esté mal, es que todo proceso técnico que se quiera sostener debe ser sistematizado.
4. Lo feo: El cambio está tomando resistencia por los conocedores y locura por los neogeógrafos.
Seamos sinceros, cuando nos dijeron que no íbamos a usar aquellos
espejos con los negativos de las fotografías que proyectábamos sobre la plancha para quemar la ortofoto, no nos gustó porque creíamos que un programa informático con sus métodos matemáticos no tenía el criterio de distinguir las sombras de las manchas del espejo. La historia es la misma, ahora lo que se está dando es la semi-automatización del proceso de captura… tal como el proceso anterior intercambiará calidad por tiempo.
En aquél momento, nos complicamos con la "precisión" del producto final sabiendo continúan siendo modelos de la realidad. Así que tenemos los "neogeógrafos" por un lado con su PDA en la mano y en el otro extremo nosotros con las estaciones totales; es necesario que tengamos la apertura pues inevitablemente nuestros procesos híbridos deberán ser reemplazados por los simplificados, igual sus equipos tarde o temprano lograrán mayor precisión y lo harán por menos plata… tercera, quinta y sexta premisas de Catastro 2014
Lo mejor será que nuestras escuelas de topografía no se desactualicen en el uso de nuevas tecnologías, y que no dejen de enseñar los principios que sustentan su uso. Al final, la taza de café sabrá igual… a cortina.
5. La conclusión: La pertinencia define las precisiones y estas exigen el método
Volvemos a lo que antes hemos dicho, la pertinencia de los datos define que no hay mapas buenos ni malos, solo hechos. El trabajo del proveedor de datos es proporcionar hechos, con unas condiciones de precisión, tolerancia y pertinencia. El que levanta el lindero dice "fui, vi, medí y esto es lo que obtuve… con éste método" mientras que el que entrega la ortofoto dice "volé, o no volé, tomé fotos, tomé puntos de control y esto es lo que obtuve… con éste método…".
¿Ortofotos en tiempo real ? es posible, finalmente el método define la precisión… y si la pertinencia está clara… no importa que mientras el avión volaba estuviéramos jugando en tweeter.