Al utilizar una herramienta de supervisión, debe comprender la diferencia entre información cualitativa e información cuantitativa. Con los datos cualitativos, se hace un seguimiento del comportamiento y las prácticas. Con los datos cuantitativos, se hace un seguimiento de la satisfacción, la frecuencia y la disponibilidad. El análisis de los datos cualitativos es más subjetivo, mientras que el de los cuantitativos es más estadístico.
Las herramientas de supervisión para recopilar información cualitativa se componen de preguntas abiertas en lugar de preguntas de tipo “sí/no” o de clasificación. Estas herramientas pueden ofrecer respuestas más largas y subjetivas. Los grupos focales o las guías para entrevistas, que plantean preguntas planificadas con espacio para que los entrevistadores tomen notas, son útiles para recabar datos cualitativos. En la entrevista no dirigida, el entrevistador no plantea las preguntas de forma que haya respuestas correctas o incorrectas, ni conjuntos limitados de opciones y evita inducir al entrevistado a responder de determinadas maneras o en base a determinados sistemas de valores. En su lugar, el entrevistador utiliza una metodología abierta para explorar los pensamientos, actitudes y creencias del entrevistado. Las herramientas de supervisión para recopilar datos cuantitativos se componen de preguntas cerradas, normalmente aquellas con respuestas de sí, no o tal vez, así como de clasificaciones.
También hay que entender la diferencia entre fuentes de datos primarios y fuentes de datos secundarios. Los datos primarios incluyen observaciones directas, mientras que los datos secundarios incluyen estudios de investigación realizados con anterioridad. Los datos primarios deben recabarlos usted mismo con cuestionarios y entrevistas, mientras que los datos secundarios pueden obtenerse de fuentes como informes elaborados por el gobierno, organizaciones internacionales u otras organizaciones no gubernamentales; estadísticas oficiales; o artículos de prensa.
Su metodología para recopilar datos dependerá del tipo de datos que recoja y de cómo se recojan. Sólo una vez determinado esto tendrá sentido evaluar qué tecnologías pueden utilizarse para facilitar la introducción, gestión y análisis de los datos. Algunas herramientas son más útiles para recabar datos estructurados, pero no lo serían para los datos no estructurados que se recogen mediante entrevistas cualitativas. Otras herramientas, como las de minería de datos, son más útiles para obtener información de fuentes secundarias. En algunos casos, las herramientas digitales puede que no sean necesarias en absoluto.
Las herramientas de recopilación de datos pueden dividirse en tres categorías: repositorios de datos, formularios en línea y herramientas de minería de datos. En primer lugar, los repositorios de datos como Airtable24 o Google Sheets25 — básicamente, hojas de cálculo- se utilizan para organizar datos estructurados. La información puede introducirse directamente en los repositorios de datos en formato tabular. Sin embargo, esto no es muy fácil de usar y puede generar conjuntos de datos desordenados, especialmente si más de una persona está trabajando en la base de datos o no hay un formato estandarizado.
En segundo lugar, los formularios en línea facilitan la introducción de datos en el repositorio en un formato estructurado. Tener datos más estructurados agilizan el análisis y la visualización. Se pueden usar formularios en línea sencillos, como Survey Monkey26 o Google Forms27 para limitar el error humano mediante la validación de las entradas, por ejemplo, permitiendo únicamente la introducción de direcciones de correo electrónico válidas en un campo de correo electrónico. Las herramientas avanzadas para encuestas que aprovechan las tecnologías modernas, como los teléfonos inteligentes, pueden incluso recoger datos de forma pasiva para validar los datos o simplemente recopilar datos adicionales para su análisis. Por ejemplo, los teléfonos inteligentes con servicios de geolocalización pueden recoger datos sobre la ubicación de la persona que recoge los datos y la hora a la que los recoge, de una forma que sería difícil de falsificar.
A veces es necesario que los observadores de procesos políticos recojan información directamente de los sujetos de su investigación, por ejemplo, con encuestas de opinión, crowdsourcing o mediante el trabajo de observadores formados en la práctica. Herramientas de crowdsourcing o crowdmapping como Fix My Community28 pueden ayudar a mejorar la prestación de servicios públicos a través de las denuncias ciudadanas. Los esfuerzos de supervisión que involucran a observadores en campo pueden aprovechar herramientas estructuradas de recopilación de datos como Apollo29 para recabar informes de observación en tiempo real. En ambos casos, es importante tener en cuenta cómo puede afectar el medio a los datos recopilados. Por ejemplo, una encuesta por Internet en una comunidad tendrá un sesgo a favor de las personas con acceso a Internet (para mayor información, véase Encuestas y sesgo de selección en la sección Tipos de supervisión del proceso político). Si los observadores de campo se encuentran en zonas sin acceso a Internet, las llamadas telefónicas o los SMS puede que sean más adecuados que los formularios en línea.
En tercer lugar, las herramientas de minería de datos toman los datos disponibles públicamente y los utilizan para el análisis. Algunas plataformas y sitios web permiten la descarga directa de datos estructurados a través de interfaces de programación de aplicaciones (API) o canales RSS (Really Simple Syndication). En la mayoría de los casos, extraer datos de las API es legal y ético, ya que los datos de las API están deliberadamente regulados por las plataformas y estructurados para no violar los derechos de los usuarios. En los casos en que los datos sólo están disponibles en formatos que no se pueden descargar y analizar fácilmente, como la información en sitios web o en archivos PDF, es posible que tenga que hacer uso de herramientas de scraping (“raspado”) de datos. Herramientas como 0archive30, por ejemplo, pueden utilizarse para extraer datos de sitios web o redes sociales y convertirlos en conjuntos de datos estructurados. El web scraping (raspado web) no está regulado por las plataformas y puede infringir sus condiciones de servicio o incluso ser ilegal en algunos contextos. Herramientas como DocumentCloud31 o Adobe Acrobat32 pueden ayudar a extraer datos de archivos PDF o de imágenes. Amazon Textract33 también puede extraer relaciones o estructuras, lo que puede ayudar a automatizar el proceso de organizar los datos extraídos de los PDF en un conjunto de datos estructurados. Aunque estas herramientas son útiles cuando se trata de cantidades masivas de datos, para proyectos de supervisión más pequeños, la introducción manual de datos puede ser lo más conveniente