Un dibujo de un reloj

Descripción generada automáticamente con confianza baja 

Revista Científica INTELIGENCIA

ESTRATÉGICA

Grandes volúmenes de datos de inteligencia y contrainteligencia: Implicaciones para la toma de decisiones[1]

Large volumes of intelligence and counterintelligence data: Implications for decision making

 

Edwin Orlando Rodríguez-Buenhombre*

|

Escuela de Inteligencia y Contrainteligencia, Bogotá, D.C., Colombia

Vladimir Osorio-Isaza

|

Datos, Analítica y Soluciones (DattaSOL), Bogotá, D.C., Colombia

 

Volumen 1, Número 1, julio - diciembre de 2024, pp. 97-116

e-ISSN (3073-0139). Bogotá, D. C., Colombia

*Autor a quien se dirige la correspondencia

 

Fecha de recepción: 11/09/2024 | Fecha de aprobación: 06/12/2024

 

Resumen

El análisis de grandes volúmenes de datos ha revolucionado la inteligencia (IMI) y contrainteligencia (CI), optimizando la toma de decisiones estratégicas. Este artículo examina su evolución, desde métodos manuales hasta el uso de inteligencia artificial y minería de datos, lo que ha mejorado la eficiencia en la identificación de amenazas y el diseño de estrategias de seguridad. El marco conceptual se basa en la minería de datos y el modelado de temas. La minería de datos permite extraer patrones significativos, mientras que el modelado de temas organiza la información en categorías clave. La integración de estas herramientas fortalece la gestión organizacional en inteligencia, proporcionando información precisa y oportuna. Se adopta un enfoque cualitativo mediante revisión bibliográfica de fuentes académicas y documentos oficiales, permitiendo una comprensión integral del impacto del análisis de datos en IMI y CI, enriquecido por la experiencia del investigador. Asimismo, se analiza el papel de la visualización de datos en la toma de decisiones, facilitando la identificación de tendencias clave. Finalmente, se presenta un modelo actualizado que optimiza el uso de datos en IMI y CI, abordando beneficios, desafíos éticos y de privacidad, y ofreciendo recomendaciones para una gestión responsable de la información.

 

Palabras clave: seguridad nacional; defensa; minería de datos; visualización de datos; toma de decisiones.

 

Clasificación JEL: C55; F52; H56.

 

Abstract

Big data analysis has revolutionized intelligence (IMI) and counterintelligence (CI), optimizing strategic decision-making. This article examines its evolution, from manual methods to the use of artificial intelligence and data mining, which has improved efficiency in identifying threats and designing security strategies. The conceptual framework is based on data mining and topic modeling. Data mining allows extracting meaningful patterns, while topic modeling organizes information into key categories. The integration of these tools strengthens organizational management in intelligence, providing accurate and timely information. A qualitative approach is adopted through a bibliographic review of academic sources and official documents, allowing a comprehensive understanding of the impact of data analysis in IMI and CI, enriched by the researcher's experience. Likewise, the role of data visualization in decision-making is analyzed, facilitating the identification of key trends. Finally, an updated model is presented that optimizes the use of data in IMI and CI, addressing benefits, ethical and privacy challenges, and offering recommendations for responsible information management.

 

Keywords: national security; defense; big data; data visualization; decision making.

 

Introducción

En el contexto actual, caracterizado por la disponibilidad masiva de datos, las organizaciones enfrentan el desafío de optimizar la toma de decisiones estratégicas en inteligencia y contrainteligencia. A lo largo de la historia, los procesos decisionales en este ámbito se han apoyado en métodos y herramientas que, si bien fueron efectivos en su tiempo, ahora resultan insuficientes para enfrentar la creciente complejidad y velocidad de los entornos contemporáneos.

 

La pregunta de investigación es: ¿Cómo pueden las organizaciones evolucionar sus procesos de toma de decisiones estratégicas en inteligencia y contrainteligencia, integrando las lecciones aprendidas de prácticas tradicionales con las capacidades tecnológicas actuales, para gestionar grandes volúmenes de datos de manera efectiva, ética y que contribuya al desarrollo de la inteligencia estratégica? Este planteamiento del problema es significativo porque aborda la necesidad urgente de actualizar los procesos de toma de decisiones en un contexto en el que la información es abundante, pero difícil de gestionar eficazmente. Además, ofrece una base sólida para futuras investigaciones al sugerir la integración de enfoques tradicionales con herramientas modernas, garantizando que las soluciones propuestas sean éticas, viables y adaptadas a las capacidades y recursos del investigador.

 

El manejo de datos en los campos de la inteligencia y contrainteligencia ha pasado por una profunda transformación, impulsada por los avances tecnológicos y la disponibilidad masiva de información. Según (Mena-Guacas et al., 2024), el fenómeno del Big Data ha permitido que las agencias de inteligencia optimicen la recolección, el procesamiento y la visualización de información, lo que ha dado lugar a una toma de decisiones estratégicas más precisa. Este proceso está alineado con la necesidad de que la producción de Inteligencia Estratégica debe comprobar o descartar afirmaciones basadas en juicios de valor de expertos y que se dan por 'ciertas o verdaderas'. Además, como señalan Velasco-Peña y Osorio-Isaza (2022), la inteligencia de negocios ha evolucionado significativamente, permitiendo una integración más efectiva de datos y análisis en tiempo real. Sin embargo, tal y como lo plantea Zuboff (2019), este avance no ha estado exento de preocupaciones éticas, especialmente en términos de privacidad y el uso intensivo de tecnologías de vigilancia.

 

La evolución del manejo de datos en inteligencia, desde una perspectiva interna, se podría condensar en cinco etapas. La primera, marcada por el uso de documentos físicos, refleja un enfoque rudimentario en la gestión de información. En la segunda etapa la digitalización transformó el modo en que los datos se estructuraban y gestionaban, lo que permitió la creación de bases de datos relacionales, facilitando así un acceso y una organización más eficiente de la información (González y López-Cruz, 2022). Esta evolución no solo optimizó el almacenamiento de grandes volúmenes de datos, sino que también sentó las bases para procesos analíticos más ágiles, que permitieron a las agencias de inteligencia adaptarse mejor a la creciente complejidad de los entornos de información contemporáneos. En la tercera etapa se observó un creciente interés en la automatización de tareas de análisis, impulsado por el desarrollo de herramientas capaces de procesar grandes volúmenes de datos. Como lo destacan Gurcan et al. (2023) en su investigación, estas herramientas iniciales permitieron a los analistas de inteligencia obtener una comprensión más profunda y rápida de grandes volúmenes de información, sentando las bases para los avances posteriores.

 

La cuarta etapa se caracteriza por la integración y análisis multidimensional de datos, donde los sistemas combinan múltiples fuentes en plataformas interactivas que ofrecen visualizaciones en tiempo real. Gurcan et al. (2023) señalan que esta integración mejora la toma de decisiones estratégicas al proporcionar una visión más detallada y holística de los datos. Además, como se señala en el artículo "China, Estados Unidos y 5G: Capitalismo de Vigilancia, Geopolítica y Geoestrategia", esta integración es especialmente relevante en el contexto actual, donde “la tecnología inteligente [...] recopila una cantidad de datos sin precedentes; a esto es lo que se denomina Big Data o macrodatos” (Chaparro-Betancourt et al., 2020, p. 40). Este fenómeno se ha convertido en un pilar fundamental para la inteligencia moderna, ya que permite una comprensión más profunda de las relaciones entre diversas variables y actores, facilitando el desarrollo de estrategias más informadas y precisas. Por último, La quinta etapa, aunque aún no completamente explorada, representa un escenario hipotético en el que la inteligencia artificial y las técnicas predictivas automatizan el análisis de datos, generando patrones y recomendaciones más avanzadas. Corzo-Ussa et al. (2022) postulan que este estado final deseado transformaría la capacidad de anticipación y eficiencia de los sistemas de inteligencia.

 

Este estudio tiene como objetivo principal analizar cómo estas etapas en la evolución del manejo de datos han influido en la capacidad de las agencias de inteligencia y contrainteligencia para generar productos para los tomadores de decisiones. Los objetivos específicos incluyen: (1) Explorar la evolución de los métodos y herramientas desde una perspectiva histórica y técnica; (2) identificar las tecnologías actuales que facilitan la gestión y análisis de grandes volúmenes de datos; y (3) proponer un modelo actualizado que integre las lecciones aprendidas y las innovaciones tecnológicas para la toma de decisiones estratégicas. La relevancia de esta investigación radica en su contribución a la comprensión de cómo las tecnologías de análisis de datos han mejorado las prácticas de inteligencia y contrainteligencia, lo que permitirá una mayor precisión en la toma de decisiones estratégicas al procesar grandes volúmenes de información. Según Arciniegas-Londoño y Osorio-Isaza (2021), el uso eficiente de herramientas de análisis de datos en inteligencia no solo permite optimizar recursos, sino que también incrementa la capacidad de predicción frente a escenarios complejos y cambiantes. Al abordar estos temas, el estudio busca ofrecer un marco conceptual que permita a las agencias gestionar los grandes volúmenes de datos de manera más eficiente, responsable y alineada con los principios éticos contemporáneos.

 

Marco conceptual

El análisis de grandes volúmenes de datos ha transformado significativamente los campos de la inteligencia y contrainteligencia, permitiendo una optimización en la toma de decisiones estratégicas. Esta evolución, respaldada por avances en la minería de datos y la inteligencia artificial, ha sido discutida por múltiples autores como Aguirre (2015), quien resalta el impacto organizacional y estratégico de estas herramientas tecnológicas en la gestión de datos masivos. Además, He et al. (2015) destacan cómo las tecnologías avanzadas de minería de texto y visualización juegan un papel crucial en el manejo eficiente de información en tiempo real.

 

Asimismo, como plantea Hernández-Estupiñán (2020), con el manejo eficiente de información, derivado de estas herramientas, ha redefinido las capacidades analíticas de las agencias de inteligencia, al permitir la creación de sistemas más robustos y dinámicos. Este enfoque es complementado por Gutiérrez-Sánchez y Arciniegas-Londoño (2022), quienes argumentan que la integración de tecnología avanzada en la gestión de inteligencia ha llevado a un nuevo paradigma en el que la recopilación, análisis y visualización de datos se efectúan en tiempo real, permitiendo una respuesta mucho más ágil y precisa ante desafíos geopolíticos.

 

Minería de datos

La minería de datos se basa en descubrir patrones y correlaciones dentro de grandes conjuntos de datos, utilizando técnicas como el aprendizaje automático, la estadística y el reconocimiento de patrones. Zhao et al. (2014) destacan la importancia del concepto de big data y cómo se está aplicando en diversos campos. En este sentido, Gurcan et al. (2023) subrayan el uso del modelado de temas para analizar grandes volúmenes de datos textuales, lo cual es vital para detectar amenazas emergentes en inteligencia y contrainteligencia.

 

Según He et al. (2015) la minería de datos y sus técnicas han permitido transformar los enfoques tradicionales de recolección y análisis de información; en la inteligencia estratégica se evidencia la aplicación de este sistema para facilitar la toma de decisiones informadas y rápidas, algo vital en entornos de seguridad. Además, Aguirre (2015) resalta cómo estas técnicas han optimizado los procesos organizacionales, haciendo que la inteligencia pueda ser usada de manera más eficiente a nivel táctico y estratégico. La capacidad de extraer temas, identificar palabras clave y descubrir la intención subyacente a través de algoritmos avanzados de procesamiento de lenguaje natural (NLP) es esencial en este contexto, como lo destacan Gurcan et al. (2023) en su discusión sobre la evolución del modelado de temas en inteligencia.

 

Modelado de temas

El modelado de temas es una técnica de procesamiento de lenguaje natural (PLN) que ayuda a descubrir las estructuras temáticas subyacentes en grandes colecciones de documentos. Esta técnica organiza el contenido textual en diferentes temas, permitiendo una comprensión más profunda de la información y facilitando el análisis de grandes volúmenes de datos textuales. En el ámbito de la inteligencia y la contrainteligencia, el modelado de temas es vital para analizar documentos extensos, comunicaciones interceptadas y reportes de inteligencia. Por ejemplo, puede ser utilizado para identificar temas recurrentes en las conversaciones de un grupo terrorista o para analizar informes de campo en busca de menciones de ubicaciones específicas, eventos o personas.

 

El algoritmo más comúnmente utilizado para el modelado de temas es el Latent Dirichlet Allocation (LDA), que asume que cada documento es una mezcla de temas y que cada tema es una mezcla de palabras. Esta técnica no solo mejora la eficiencia del análisis, sino que también permite a los analistas centrar su atención en las áreas más relevantes, facilitando la detección de amenazas y la formulación de estrategias preventivas.

 

Integración de la inteligencia en la gestión organizacional

La integración de la inteligencia en la gestión organizacional implica la incorporación sistemática de datos y análisis de inteligencia en el proceso de toma de decisiones dentro de una organización. Este concepto es crucial para mejorar la eficiencia operativa y la capacidad de respuesta ante amenazas. En una estructura organizacional la inteligencia se debe integrar en todos los niveles, desde la toma de decisiones estratégicas hasta las operaciones tácticas. Esto incluye la creación de unidades específicas dedicadas al análisis de inteligencia, la capacitación del personal en técnicas de minería de datos y modelado de temas y la implementación de sistemas tecnológicos avanzados para la recolección, almacenamiento y análisis de datos.

 

La integración eficiente de la inteligencia permite una respuesta más rápida y precisa a las amenazas, optimiza la asignación de recursos y mejora la coordinación entre diferentes departamentos y agencias. Además, facilita una toma de decisiones más informada y basada en datos, lo que es esencial para el éxito en ambientes de seguridad nacional. Para maximizar los beneficios de esta integración, es importante también considerar aspectos como la calidad de los datos, la seguridad y privacidad de la información y la capacidad del personal para interpretar y actuar sobre los análisis proporcionados. Este enfoque no solo fortalece la capacidad de la organización para enfrentar desafíos presentes, sino que también la prepara mejor para amenazas futuras.

 

Como se menciona en el libro "Comunicaciones estratégicas (STRATCOM) y social media: su aplicabilidad para el mundo Postwesfaliano", "El uso de tecnologías avanzadas permite no solo una recopilación más eficiente de la información, sino también una interpretación más precisa que se traduce en decisiones estratégicas fundamentadas". [...] se convierten en herramientas esenciales para la preservación de los intereses nacionales en un mundo interconectado y globalizado, donde la información y su manipulación juegan un papel crucial en la defensa de la institucionalidad democrática" (Pirateque-Perdomo y Osorio-Isaza, 2021). Refuerza la importancia del uso de tecnologías emergentes y el análisis de grandes volúmenes de datos, teniendo implicaciones directas sobre cómo se gestionan los datos para optimizar la toma de decisiones en inteligencia y contrainteligencia.

 

Este cambio paradigmático se ha visto potenciado por el uso de grandes volúmenes de datos y la capacidad de extraer información relevante mediante técnicas avanzadas de análisis, lo que ha permitido una mejor comprensión de las amenazas y una respuesta más eficaz ante los desafíos globales. En consecuencia, la evolución tecnológica no solo ha facilitado el procesamiento de información, sino que ha redefinido el papel de la inteligencia estratégica en un mundo cada vez más interconectado y complejo.

 

Metodología

Para llevar a cabo este estudio sobre los grandes volúmenes de datos en los campos de inteligencia y contrainteligencia, se adoptó un enfoque cualitativo con una sólida base metodológica que permite comprender la evolución y las implicaciones prácticas de las tecnologías de análisis de datos (Hernández-Sampieri et al., 2006). La metodología incluye una revisión bibliográfica exhaustiva y la experiencia del investigador en el campo.

 

Además, el objetivo general de esta investigación es analizar cómo las etapas en la evolución del manejo de datos han influido en la capacidad de las agencias de inteligencia y contrainteligencia para generar productos para los tomadores de decisión. Este análisis es crucial, ya que nos permitirá comprender la relación entre la evolución tecnológica y la efectividad en la toma de decisiones estratégicas en un entorno cada vez más complejo, englobando los siguientes objetivos específicos:

 

1.                Explorar la evolución de los métodos y herramientas desde una perspectiva histórica y técnica. Este objetivo se centra en investigar cómo han cambiado las metodologías y herramientas utilizadas en el análisis de datos a lo largo del tiempo, desde los métodos manuales hasta las tecnologías avanzadas actuales. Comprender esta evolución nos ayudará a identificar las tendencias y cambios significativos en el campo.

2.                Identificar las tecnologías actuales que facilitan la gestión y análisis de grandes volúmenes de datos. En este objetivo, nos enfocaremos en las herramientas y tecnologías contemporáneas que permiten a las agencias de inteligencia manejar y analizar grandes volúmenes de datos de manera eficiente. Esto incluye el uso de inteligencia artificial, minería de datos y otras innovaciones tecnológicas.

3.                Proponer un modelo actualizado que integre las lecciones aprendidas y las innovaciones tecnológicas para la toma de decisiones estratégicas. Este objetivo busca desarrollar un modelo que combine las mejores prácticas y lecciones aprendidas a lo largo de la evolución del manejo de datos, con el fin de optimizar la toma de decisiones en las agencias de inteligencia y contrainteligencia.

 

Revisión bibliográfica

La revisión bibliográfica se realizó consultando una amplia gama de fuentes académicas, incluidos artículos de revistas científicas, tesis doctorales, libros especializados y conferencias relevantes. La selección de fuentes se enfocó en estudios publicados en los últimos ocho años para garantizar una perspectiva actualizada. "Se extrajo en formato “.bib” para ser procesado en el programa “R”. Allí, bajo los comandos “library(bibliometrix)” y “biblioshiny()” se ingresa a bibliometrix de Aria y Cuccurullo (2017). Cada fuente seleccionada se evaluó en términos de su relevancia, rigor metodológico y contribución al campo.

 

Se desarrolla una búsqueda en la base de datos de Scopus. El algoritmo seleccionado fue: TITLE-ABS-KEY ("panel de control" O tablero O datos O visualización) AND intelligenc*) AND PUBYEAR > 2015 AND PUBYEAR < 2025 AND ( LIMIT-TO (SUBJAREA, "SOCI ") OR LIMIT-TO ( SUBJAREA , " DECI") Y (LIMIT-TO (EXACTKEYWORD, "Inteligencia ") O LIMIT-TO (EXACTKEYWORD, "Business Intelligence ") OR LIMIT-TO (EXACTKEYWORD, " Swarm Intelligence") O LIMIT-TO (EXACTKEYWORD, "Crimen") O LIMIT-TO (PALABRA CLAVE EXACTA, "Reconocimiento de patrones") La exploración arrojó un total de 2.039 documentos.

 

Análisis de documentos oficiales

Se revisaron diversos documentos oficiales, incluyendo informes de agencias de inteligencia, directrices gubernamentales sobre el manejo de Big Data, y documentos de políticas públicas relacionados con la seguridad nacional. Entre ellos la "Política Nacional de Explotación de Datos", publicada por el Ministerio de Ciencia, Tecnología e Innovación de Colombia: se destaca la necesidad de desarrollar un marco que permita "el uso eficiente y ético de los datos masivos para fortalecer las capacidades del Estado en la resolución de problemas complejos" (Consejo Nacional de Política Económica y Social [CONPES 3920], 2018, p. 10). Esta directriz resalta la importancia de aprovechar el análisis de datos para la seguridad nacional y la prevención de amenazas, en consonancia con las tendencias globales.

 

A su vez, el Decreto 1389 de 2022 establece un marco normativo que impulsa el uso de sistemas de información geográfica (SIG) y otras herramientas tecnológicas para la gestión de riesgos y la protección de la seguridad pública. Estas tecnologías son fundamentales para el análisis espacial en tiempo real y la toma de decisiones más informadas en contextos de defensa y seguridad (Decreto 1389 de 2022). Este conjunto de herramientas está alineado con las necesidades estratégicas actuales, promoviendo una respuesta más ágil y eficaz ante posibles amenazas.

 

De acuerdo con la Comisión de Regulación y Gestión del Espectro en el documento oficial CONPES 3854, el uso de Big Data permite la optimización en la identificación de amenazas y la toma de decisiones estratégicas al procesar grandes cantidades de información en tiempo real. La integración de estas herramientas en la gestión de la seguridad ha mejorado la capacidad del Estado para responder a los desafíos emergentes relacionados con la defensa y la seguridad interna de la nación (Consejo Nacional de Política Económica y Social [CONPES 3854], 2016). Además, Peña-Suárez (2023) destaca que “el manejo de grandes volúmenes de información, o Big Data, está intrínsecamente vinculado con la ciberseguridad, ya que la capacidad de proteger y analizar datos sensibles es crucial para la toma de decisiones estratégicas en tiempo real” (p. 345). En este sentido, las Fuerzas Militares han comenzado a adoptar tecnologías que no solo aseguran los sistemas de información, sino que también mejoran la eficiencia en la recolección y análisis de datos, lo que resulta esencial en un entorno de amenazas cibernéticas en constante evolución. Esto refuerza la idea de que el uso de estas tecnologías es imprescindible para la evolución de las políticas públicas de seguridad nacional.

 

La revisión de estos documentos permitió identificar las políticas y prácticas que guían el uso de manejo de datos en inteligencia y contrainteligencia, así como los desafíos regulatorios y éticos asociados. Además, se evaluaron las recomendaciones y directrices sobre el uso responsable de datos para asegurarse de que el análisis se alinee con las mejores prácticas y principios éticos reconocidos a nivel internacional.

 

Limitaciones del estudio

A pesar de los esfuerzos para garantizar un análisis riguroso y comprensivo, este estudio tiene algunas limitaciones. La naturaleza cualitativa del enfoque implica que los hallazgos pueden no ser generalizables a todos los contextos de inteligencia y contrainteligencia. Además, la disponibilidad y acceso a datos específicos y detallados en operaciones de inteligencia es a menudo limitado, debido a su naturaleza confidencial, lo que puede restringir la profundidad del análisis en ciertos casos.

 

Contribución del investigador

La experiencia del investigador en el campo de la inteligencia y contrainteligencia aportó una perspectiva interna y práctica al estudio. Este conocimiento permitió un análisis más profundo y contextualizado de los datos, así como la identificación de aspectos relevantes que pueden no ser evidentes para investigadores externos. La participación en operaciones de elaboración de productos de inteligencia ejecutivos que contribuyó a la toma de decisiones estratégicas y programas de inteligencia proporcionó una comprensión detallada de los desafíos y oportunidades en la implementación de tecnologías de Big Data en estos campos.

 

En resumen, la metodología empleada en este estudio asegura un análisis riguroso, detallado y contextualizado del impacto de los grandes volúmenes de datos en la inteligencia y contrainteligencia. La combinación de revisión bibliográfica, análisis de casos y revisión de documentos oficiales permite ofrecer una visión comprensiva y matizada del tema, mientras que las consideraciones éticas y la experiencia del investigador aportan una dimensión práctica y responsable al análisis.

 

Hallazgos

La investigación sobre la evolución del manejo de datos en los campos de inteligencia y contrainteligencia revela un desarrollo significativo en cinco etapas distintas, cada una marcando avances clave en la forma en que se gestiona y utiliza la información. Estas etapas, desde la recolección documental física hasta la visualización predictiva automatizada, reflejan el progreso técnico y metodológico que ha transformado estas disciplinas.

 

Etapa de recolección documental (física y no gestionada)

En esta etapa, consultada la historia de los 59 años del Arma de Inteligencia Militar, de acuerdo con el autor (Solano-Bautista, 2014) se evidenciaba la carencia de una estructura organizada para gestionar grandes volúmenes de datos y cómo, a lo largo del tiempo, se fue formalizando el proceso de formación y organización dentro del ámbito militar. Esto contribuyó en gran medida a la estandarización en los criterios de clasificación y la dependencia del conocimiento individual. El análisis era manual y requería un esfuerzo considerable para sintetizar los datos, lo que a menudo resultaba en una interpretación fragmentada de la información.

 

Etapa de administración básica (bases de datos relacionales)

Con la llegada de la digitalización, se produjo un cambio importante en la organización de la información, lo que ha sido destacado en el contexto de la innovación tecnológica en el ámbito militar. Según Corzo-Ussa et al. (2022), las bases de datos relacionales han permitido estructurar y gestionar los datos de manera más eficiente, facilitando el acceso y la recuperación de información. Las tablas interconectadas ofrecían una organización más coherente y la capacidad de realizar análisis más detallados. Sin embargo, a pesar de estas mejoras, la visualización de los datos seguía siendo limitada con la generación de informes lineales y extensos que no ofrecían la claridad necesaria para una toma de decisiones ágil y efectiva. La gestión de datos en esta etapa representó un avance significativo, pero aún era insuficiente para enfrentar los crecientes desafíos de la inteligencia moderna (Corzo-Ussa et al., 2022).

 

Etapa de automatización y representación visual inicial

El avance hacia la automatización marcó un punto de inflexión esencial en la evolución del manejo de datos en inteligencia y contrainteligencia. La introducción de herramientas de software capaces de procesar automáticamente grandes volúmenes de datos permitió a los analistas generar representaciones visuales más sofisticadas, como gráficos y diagramas, que facilitaban la comprensión de información compleja. Estas representaciones visuales sirvieron como un puente hacia nuevas formas de visualización, donde la optimización del tiempo se volvió un requisito clave para los tomadores de decisiones.

 

En esta etapa, las infografías emergieron como una herramienta gráfica clave, ya que permitieron condensar grandes volúmenes de datos en representaciones simplificadas que podían ser fácilmente interpretadas por los mandos superiores. Según He et al. (2015), las infografías no solo redujeron el volumen de información presentada, sino que también proporcionaron un esquema visual que conectaba diferentes elementos, mejorando la comprensión y facilitando la toma de decisiones en tiempo real.

 

Estas herramientas visuales resultaron críticas para identificar patrones y tendencias que, debido a la complejidad y cantidad de los datos, antes resultaban difíciles de discernir. Al proporcionar una representación más clara y concisa, las infografías y otras formas de visualización gráfica permitieron a los responsables de la toma de decisiones obtener una visión rápida y precisa de la información crítica, optimizando el proceso de toma de decisiones estratégicas (Aguirre, 2015).

 

Etapa de integración y análisis multidimensional

En esta etapa, los sistemas de inteligencia comenzaron a integrar múltiples fuentes de datos en plataformas interactivas y avanzadas. La utilización de dashboards y herramientas analíticas permitió un análisis en tiempo real y la combinación de fuentes heterogéneas; ejemplo de esta aplicación se puede constatar con el trabajo arduo que hombres y mujeres de inteligencia han realizado en la implementación del intranet SICIE, el cual ofrece alrededor de diez aplicaciones, entre ellas el SICDI -Sistema clasificado de documentos de inteligencia militar-; SICOOI -Sistema integrado de cooperación interagencial-; SIGOP -Sistema de gestión operacional, las cuales implementan soluciones para el manejo de grandes volúmenes de información de manera segura y eficiente. Las visualizaciones dinámicas resultantes ofrecieron una representación más precisa y concisa de la información, lo que mejoró significativamente la capacidad para tomar decisiones estratégicas informadas. La interconectividad entre diferentes fuentes de datos y la capacidad de realizar análisis multidimensionales representaron un salto cualitativo en la eficiencia y efectividad de las operaciones de inteligencia.

 

Etapa de visualización predictiva y automatización completa

La fase más avanzada en la evolución del manejo de datos está marcada por la integración de inteligencia artificial y machine learning. La automatización completa de la gestión de datos ha llevado a una disminución significativa en la necesidad de intervención humana, con sistemas que generan alertas y visualizaciones predictivas de manera autónoma. Estas visualizaciones se adaptan dinámicamente al contexto operativo, optimizando la toma de decisiones en tiempo real y permitiendo una respuesta más rápida y precisa a las amenazas emergentes.

 

Tecnologías actuales para la gestión y análisis de grandes volúmenes de datos

Las tecnologías actuales para la gestión y análisis de grandes volúmenes de datos, conocido como Big Data, han evolucionado significativamente en los últimos años. Hadoop, un marco de trabajo de código abierto, permite el almacenamiento y procesamiento de grandes volúmenes de datos, utilizando el modelo de programación MapReduce (White, 2015). Por otro lado, Apache Spark, un motor de procesamiento de datos en tiempo real, ofrece una velocidad superior a Hadoop y es compatible con múltiples lenguajes de programación (Zaharia et al., 2016).

 

Las bases de datos NoSQL, como MongoDB, Cassandra y Redis, son fundamentales para la gestión de datos no estructurados y semiestructurados. Estas bases de datos ofrecen flexibilidad en el esquema, escalabilidad horizontal y un alto rendimiento en operaciones de lectura y escritura (Cattell, 2011). Además, las soluciones de almacenamiento de datos (data warehousing), como Amazon Redshift y Google BigQuery, permiten la integración y análisis de grandes volúmenes de datos provenientes de diversas fuentes, mientras que las herramientas de ETL (Extracción, Transformación y Carga) son esenciales para preparar los datos antes de su análisis (Kimball y Ross, 2013, p. 45).

 

Las tecnologías de inteligencia artificial (IA) y aprendizaje automático (ML) son cada vez más utilizadas para el análisis de Big Data. Herramientas como TensorFlow y PyTorch permiten a los científicos de datos construir modelos predictivos y realizar análisis avanzados sobre grandes conjuntos de datos (Géron, 2019). Finalmente, las herramientas de visualización de datos, como Tableau y Power BI, son cruciales para interpretar y presentar los resultados del análisis de datos, facilitando la toma de decisiones basada en datos (Nelli, 2018).

 

Discusión

La evolución del manejo de datos en los campos de la inteligencia y contrainteligencia ha sido un proceso marcado por cambios significativos en las metodologías y tecnologías utilizadas. En sus inicios, la inteligencia se basaba en métodos manuales y rudimentarios, donde la recolección y análisis de datos dependían casi exclusivamente de la habilidad y el juicio de los operativos. Estos métodos, como la observación directa, la infiltración y el espionaje físico, requerían un esfuerzo considerable y eran propensos a errores humanos debido a la falta de automatización y la alta dependencia en el trabajo manual.

 

Durante este periodo, la información se recolectaba en formatos físicos, como documentos, imágenes, audios y videos, acumulándose en archivos y registros sin una estructura organizada. La ausencia de criterios estandarizados para la clasificación y gestión de la información dificultaba el análisis y limitaba la capacidad de los analistas para sintetizar grandes volúmenes de datos (Ospina-Usaquén et al., 2020). Esta primera etapa se caracterizó por una capacidad limitada para procesar y analizar datos de manera efectiva, lo que a menudo resultaba en decisiones basadas en interpretaciones fragmentadas y subjetivas de la información disponible.

 

La llegada de la digitalización y el desarrollo de bases de datos relacionales marcaron un hito en la administración de datos. Estas tecnologías facilitaron la estructuración y organización de la información de manera más eficiente, optimizando su acceso y recuperación (Santa-Soriano et al., 2023). Sin embargo, a pesar de estos avances, la visualización de datos seguía siendo limitada, con informes extensos y predominantemente textuales que no ofrecían la claridad necesaria para una toma de decisiones ágil y precisa.

 

El siguiente gran salto en la evolución del manejo de datos vino con la automatización y la introducción de representaciones visuales iniciales. Herramientas de software comenzaron a automatizar el procesamiento de grandes volúmenes de datos, lo que permitió a los analistas generar gráficos y diagramas que facilitaban la identificación de tendencias y patrones (Díaz-Matey, 2010). Este cambio permitió una interpretación más clara y concisa de la información, apoyando decisiones estratégicas más rápidas y basadas en datos concretos.

 

La integración de múltiples fuentes de datos y el análisis multidimensional en plataformas interactivas ha sido fundamental en la evolución de los sistemas de inteligencia. Según Chaparro-Betancourt et al. (2020), la capacidad de combinar datos provenientes de distintas fuentes en tiempo real, como imágenes satelitales, redes sociales y transacciones económicas, ha permitido una representación más dinámica y precisa de la información, incrementando la eficacia operativa de la inteligencia. Esta integración no solo facilita una toma de decisiones más rápida y fundamentada, sino que también optimiza la respuesta frente a situaciones críticas, reforzando la seguridad en el manejo de grandes volúmenes de información.

 

Finalmente, la integración de inteligencia artificial y machine learning ha revolucionado la capacidad para manejar grandes volúmenes de datos de manera autónoma. Estas tecnologías permiten predecir escenarios basados en patrones históricos y datos en tiempo real, generando alertas y visualizaciones predictivas que optimizan la toma de decisiones estratégicas en un entorno complejo y en constante cambio (Ying y Liu, 2021). El scraping web y el análisis de redes sociales se han convertido en métodos estándar para la recolección de datos, proporcionando una visión instantánea de las tendencias y actividades en línea, y permitiendo a los analistas tomar decisiones más rápidas y precisas basadas en datos actualizados en tiempo real.

 

En resumen, la transición de métodos manuales a tecnologías avanzadas de análisis de datos ha permitido un aumento significativo en la velocidad, precisión y capacidad de procesamiento de información en los campos de inteligencia y contrainteligencia. Este progreso ha optimizado la toma de decisiones estratégicas, permitiendo a las agencias de inteligencia responder de manera más efectiva a las amenazas en un entorno cada vez más dinámico y complejo. La evolución tecnológica ha transformado fundamentalmente la naturaleza de la inteligencia, llevando a un futuro en el que la automatización y el análisis predictivo desempeñarán un papel central en la protección de la seguridad nacional y global.

 

Resultados

Propuesta de modelo actualizado para la toma de decisiones en inteligencia y contrainteligencia

 

Figura 1. Modelo para la gestión de grandes volúmenes de datos para la toma de decisiones estratégicas en la IMI y CI.

 

 

Fuente: elaboración propia.

 

Este modelo en ocho pasos está diseñado para garantizar procesos de calidad, mejora continua y un enfoque integrado en la gestión de datos de inteligencia y contrainteligencia. Cada paso está orientado a optimizar la entrada de datos, los procesos de análisis y la producción de informes visuales que apoyen la toma de decisiones estratégicas.

 

Paso 1: Recolección de datos

Entrada: Información proveniente de múltiples fuentes (inteligencia humana, señales, fuentes abiertas, etc.). Proceso: Recopilación sistemática de datos en bruto, utilizando tecnologías de scraping, vigilancia electrónica y recolección en campo. Producto: Bases de datos iniciales con información sin procesar.

 

Paso 2: Filtrado y validación

Entrada: Datos en bruto recopilados en la etapa anterior. Proceso: Aplicación de filtros automáticos y manuales para eliminar redundancias, corregir errores y validar la autenticidad de los datos. Producto: Dataset refinado y validado, listo para el análisis.

 

Paso 3: Estandarización y clasificación

Entrada: Dataset refinado. Proceso: Estandarización de formatos de datos y clasificación en categorías definidas (e.g., geoespaciales, temporales, actores involucrados). Producto: Conjunto de datos organizados y categorizados que permiten un análisis eficiente.

 

Paso 4: Visualización de datos

Entrada: Reportes analíticos. Proceso: Creación de visualizaciones interactivas, utilizando dashboards y herramientas gráficas para representar datos de manera comprensible y concisa. Producto: Paneles visuales y gráficos que facilitan la interpretación de la información.

 

Paso 5: Análisis de datos

Entrada: Conjuntos de datos organizados. Proceso: Utilización de técnicas de análisis, como minería de datos, análisis de redes y machine learning, para identificar patrones, correlaciones y tendencias. Producto: Reportes analíticos iniciales con hallazgos clave.

 

Paso 6: Interpretación estratégica

Entrada: Paneles visuales y gráficos. Proceso: Interpretación de los resultados por analistas estratégicos para extraer conclusiones y formular hipótesis. Producto: Informes estratégicos con recomendaciones para la toma de decisiones.

 

Paso 7: Toma de decisiones

Entrada: Informes estratégicos. Proceso: Reuniones de alto nivel donde se analizan las recomendaciones y se toman decisiones estratégicas informadas. Producto: Decisiones operativas y estratégicas basadas en datos y análisis rigurosos.

 

Paso 8: Retroalimentación y mejora continua

Entrada: Resultados de las decisiones tomadas. Proceso: Evaluación del impacto de las decisiones y retroalimentación para ajustar y mejorar continuamente el proceso de gestión de datos y análisis. Producto: Mejora continua en los procesos de inteligencia, asegurando la relevancia y efectividad del modelo en el tiempo.

 

Conclusiones

El análisis de la evolución histórica del manejo de grandes volúmenes de datos en los campos de la inteligencia y contrainteligencia ha revelado una transformación significativa en las metodologías y tecnologías utilizadas para la recopilación, procesamiento y análisis de información. Esta transformación ha sido impulsada por el desarrollo tecnológico y la necesidad de adaptarse a un entorno operativo cada vez más complejo y dinámico.

 

En primer lugar, la evolución desde métodos manuales de recolección y análisis de datos, que dependían en gran medida de la habilidad y experiencia personal de los analistas, hacia sistemas automatizados y estructurados, marca un cambio fundamental en la eficiencia operativa. La transición a bases de datos relacionales permitió una mejor organización y recuperación de la información, pero fue la incorporación de herramientas de automatización y representación visual lo que realmente revolucionó la capacidad de los analistas para tomar decisiones estratégicas basadas en datos claros y concisos.

 

En segundo lugar, la integración de fuentes diversas de datos y la capacidad para realizar análisis multidimensionales en tiempo real han mejorado significativamente la precisión y la velocidad en la toma de decisiones estratégicas. Esta evolución no solo ha optimizado las operaciones de inteligencia, sino que también ha permitido una mayor adaptabilidad a las necesidades cambiantes del entorno operativo, proporcionando a los analistas y tomadores de decisiones una visión más completa y detallada de la situación.

 

Finalmente, la incorporación de tecnologías avanzadas, como la inteligencia artificial y el machine learning, representa un punto de inflexión en el manejo de grandes volúmenes de datos en inteligencia y contrainteligencia. Estas herramientas no solo han aumentado la capacidad para gestionar y analizar datos a una escala sin precedentes, sino que también han introducido nuevas posibilidades para la toma de decisiones predictivas y proactivas. Las visualizaciones dinámicas y adaptativas, basadas en datos en tiempo real, están redefiniendo la manera en que se abordan las amenazas y se planifican las operaciones estratégicas en un entorno global interconectado.

 

El presente estudio destaca la relevancia de que un profesional diferenciado desarrolle habilidades clave en la integración y visualización de datos, lo que resulta esencial en el ámbito de la inteligencia y la contrainteligencia. A medida que el manejo de grandes volúmenes de datos sigue siendo un reto, la capacidad de sintetizar y representar información de manera clara y estratégica es crucial para optimizar la toma de decisiones.

 

Así, este estudio no solo resalta la importancia de seguir investigando y desarrollando herramientas tecnológicas, sino también de fortalecer las competencias profesionales en este ámbito. Por lo tanto, la integración de la tecnología con un enfoque estratégico y ético no solo prepara mejor a las agencias de inteligencia para los desafíos del futuro, sino que también garantiza una mayor seguridad nacional y global, promoviendo un manejo responsable de la información en un mundo interconectado y dependiente de los datos.

 

En futuras investigaciones, resulta imperativo explorar cómo los avances en Big Data e inteligencia artificial pueden ser implementados de manera más eficiente en los procesos de inteligencia y contrainteligencia, maximizando el uso de técnicas predictivas y algoritmos de aprendizaje automático. Este enfoque permitirá no solo una mayor automatización del análisis de datos, sino también la identificación proactiva de amenazas y la generación de estrategias adaptativas en tiempo real. Estas direcciones futuras abren nuevas oportunidades para optimizar la gestión de datos y enfrentar los desafíos de seguridad en un entorno global cada vez más complejo y tecnológicamente avanzado.

 

 

Declaración de divulgación

Los autores declaran que no existe ningún potencial conflicto de interés relacionado con el artículo.

 

 

Financiamiento

Los autores no declaran fuente de financiamiento para la realización de este artículo.

 

 

Sobre el/los autor(es)

Edwin Orlando Rodríguez-Buenhombre es estudiante Maestría en Inteligencia Estratégica de la Escuela de Inteligencia “BG. Ricardo Charry solano” (Colombia), Gerente de la Seguridad y Análisis Sociopolítico de la Escuela de Inteligencia “BG. Ricardo Charry solano” (Colombia).

https://orcid.org/0009-0001-7348-9615 - Contacto: edwinjj@outlook.com

 

Vladimir Osorio-Isaza es Magíster en Inteligencia Estratégica, Escuela de Inteligencia y Contrainteligencia (Colombia), Especialista en Analítica Estratégica de Datos de la Fundación Universitaria Konrad Lorenz (Colombia), Especialista en Negocios Internacionales de la Universidad Libre de Colombia (Colombia), Profesional en Negocios Internacionales de la Escuela de Administración de Negocios (Colombia).

https://orcid.org/0000-0002-5259-116X - Contacto: vsaza35@gmail.com

 

 

Referencias

Aguirre, J. (2015). Inteligencia estratégica: un sistema para gestionar la innovación. Estudios Gerenciales, 31(134), 100-110. https://doi.org/10.1016/j.estger.2014.07.001

 

Arciniegas-Londoño, L., y Osorio-Isaza, V. (2021). Variables de la inteligencia de medidas de huellas distintivas MASINT: elemento estratégico y operacional para la Inteligencia colombiana (1a ed., Vol. 1). Editorial Planeta Colombiana S. A. - Sello Editorial AQUILA HARPYIA. https://libros.esici.edu.co/index.php/aqha/catalog/book/2

 

Aria, M., y Cuccurullo, C. (2017). bibliometrix: An R-tool for comprehensive science mapping analysis. Journal of Informetrics, 11(4), 959-975. https://doi.org/10.1016/j.joi.2017.08.007

 

Cattell, R. (2011). Scalable SQL and NoSQL data stores. ACM SIGMOD Record, 39(4), 12-27. https://doi.org/10.1145/1978915.1978919

 

Chaparro-Betancourt, N., Osorio-Isaza, V., y Sandoval-Perdomo, A. E. (2020). China, Estados Unidos y 5G: Capitalismo de vigilancia, geopolítica y geoestrategia. Perspectivas en Inteligencia, 12(21), 33-45. https://doi.org/10.47961/2145194X.218

 

Consejo Nacional de Política Económica y Social (2016). Política Nacional de seguridad digital. (Documento CONPES 3854). Departamento Nacional de Planeación de Colombia, https://www.dnp.gov.co/. https://www.dnp.gov.co/LaEntidad_/subdireccion-general-prospectiva-desarrollo-nacional/direccion-desarrollo-digital/Paginas/documentos-conpes-confianza-y-seguridad-digital.aspx

 

Consejo Nacional de Política Económica y Social (2018). Política Nacional de Explotación de Datos (Big Data). (Documento CONPES 3920). Departamento Nacional de Planeación de Colombia, https://www.dnp.gov.co/. https://www.dnp.gov.co/LaEntidad_/subdireccion-general-prospectiva-desarrollo-nacional/direccion-desarrollo-digital/Paginas/documentos-conpes-infraestructura-de-datos.aspx

 

Corzo-Ussa, G. D., Álvarez-Aros, E. L., y Chavarro-Miranda, F. (2022). La industria 4.0 y sus aplicaciones en el ámbito militar: oportunidad estratégica para Latinoamérica. Revista Científica General José María Córdova, 20(39), 717-736. https://doi.org/10.21830/19006586.882

 

Decreto 1389 de 2022. Por el cual se adiciona el Título 24 a la Parte 2 del Libro 2 del Decreto Único 1078 de 2015, Reglamentario del Sector de Tecnologías de la Información y las Comunicaciones, con el fin de establecer los lineamientos generales para la gobernanza en la infraestructura de datos y se crea el Modelo de gobernanza de la infraestructura de datos. Colombia, 28 de julio de 2022. D. O. No. 52109 https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=191409

 

Díaz-Matey, G. (2010). Reseña de “Strategic intelligence; Intelligence and the quest for security” de Johnson, L. K. UNISCI Discussion Papers, 23, 243-248. https://www.redalyc.org/articulo.oa?id=76715004017

 

Géron, A. (2019). Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow: Concepts, tools, and techniques to build intelligent systems (Second edition). O’Reilly Media, Inc.

 

González, R. A., y López-Cruz, O. (2022). Transformación digital en tiempos de crisis. Cuadernos de Administración, 35. https://doi.org/10.11144/Javeriana.cao35.tdtc

 

Gurcan, F., Ayaz, A., Menekse-Dalveren, G. G., y Derawi, M. (2023). Business intelligence strategies, best practices, and latest trends: analysis of scientometric data from 2003 to 2023 using machine learning. Sustainability, 15(13), 9854. https://doi.org/10.3390/su15139854

 

Gutiérrez-Sánchez, V. C., y Arciniegas-Londoño, L. (2022). Conceptualización académica sobre el término de Inteligencia Estratégica y su aplicación en la toma de decisiones en Colombia. Perspectivas en Inteligencia, 14(23), 97-117. https://doi.org/10.47961/2145194X.334

 

He, W., Wu, H., Yan, G., Akula, V., y Shen, J. (2015). A novel social media competitive analytics framework with sentiment benchmarks. Information & Management, 52(7), 801-812. https://doi.org/10.1016/j.im.2015.04.006

 

Hernández-Estupiñán, P. A. (2020). Aportes al concepto de inteligencia estratégica. Perspectivas en Inteligencia, 12(21), 81-94. https://doi.org/10.47961/2145194X.233

 

Hernández-Sampieri, R., Fernández-Collado, C., y Baptista-Lucio, P. (2006). Metodología de la investigación (4a. ed). McGraw-Hill

 

Kimball, R., y Ross, M. (2013). The data warehouse toolkit: the definitive guide to dimensional modeling (3rd ed). J. Wiley & Sons inc.

 

Mena-Guacas, A. F., Vázquez-Cano, E., Fernández-Márquez, E., y López-Meneses, E. (2024). La inteligencia artificial y su producción científica en el campo de la educación. Formación Universitaria, 17(1), 155-164. https://doi.org/10.4067/S0718-50062024000100155

 

Nelli, F. (2018). Python Data Analytics: with Pandas, NumPy, and Matplotlib. Apress. https://doi.org/10.1007/978-1-4842-3913-1

 

Ospina-Usaquén, M. Á., Medina-García, V. H., y Rodríguez-Molano, J. I. (2020). Integración de la inteligencia de negocios, la inteligencia de mercados y la inteligencia competitiva desde el análisis de datos. Revista ibérica de sistemas, tecnología de información, No. E34, 609-619. https://www.proquest.com/openview/83a5cc84f551ba1f1c617be838692d85/1?cbl=1006393&pq-origsite=gscholar

 

Peña-Suárez, J. S. (2023). Ciberseguridad, un desafío para las Fuerzas Militares colombianas en la era digital. Perspectivas aqen Inteligencia, 15(24), 333-359. https://doi.org/10.47961/2145194X.628

 

Pirateque-Perdomo, P., y Osorio-Isaza, V. (2021). Comunicaciones estratégicas (STRATCOM) y social media: su aplicabilidad para el mundo postwesfaliano. (1a ed., Vol. 1). Editorial Planeta Colombiana S.A. - Sello Editorial AQUILA HARPYIA. https://libros.esici.edu.co/index.php/aqha/catalog/book/1

 

Santa-Soriano, A., Campillo-Alhama, C., y Torres-Valdés, R. M. (2023). Relaciones públicas contemporáneas e inteligencia estratégica. Un estudio transdisciplinar desde las áreas de especialización. Interciencia: Revista de ciencia y tecnología de América, 48(1), 20-27. https://dialnet.unirioja.es/servlet/articulo?codigo=8799341

 

Solano-Bautista, M. (2014). Bodas de oro de la inteligencia militar. Perspectivas en Inteligencia, 6(12), 11-14. https://revistascedoc.com/index.php/pei/article/view/243

 

Velasco-Peña, M. C., y Osorio-Isaza, V. (2022). Subvaloración en la importación de celulares en Colombia: caracterización a partir de series temporales e inteligencia de negocios. Perspectivas en Inteligencia, 14(23), 33-61. https://doi.org/10.47961/2145194X.332

 

White, T. (2015). Hadoop: The Definitive Guide: Storage and Analysis at Internet Scale (4th Edición). O’Reilly Media.

 

Ying, S., y Liu, H. (2021). The Application of Big Data in Enterprise Information Intelligent Decision-Making. IEEE Access, 9, 120274-120284. https://doi.org/10.1109/ACCESS.2021.3104147

 

Zaharia, M., Xin, R. S., Wendell, P., Das, T., Armbrust, M., Dave, A., Meng, X., Rosen, J., Venkataraman, S., Franklin, M. J., Ghodsi, A., Gonzalez, J., Shenker, S., y Stoica, I. (2016). Apache Spark: a unified engine for big data processing. Communications of the ACM, 59(11), 56-65. https://doi.org/10.1145/2934664

 

Zhao, J. L., Fan, S., y Hu, D. (2014). Business challenges and research directions of management analytics in the big data era. Journal of Management Analytics, 1(3), 169-174. https://doi.org/10.1080/23270012.2014.968643

 

Zuboff, S. (2019). The age of surveillance capitalism: the fight for a human future at the new frontier of power (First edition). PublicAffairs.



[1] Artículo de investigación, elaborado como opción de grado para obtener el título de Magíster en Inteligencia Estratégica en la Institución Universitaria Escuela de Inteligencia y Contrainteligencia “BG. Ricardo Charry Solano”.