Avances de la seguridad electrónica desde 1970 a la fecha

Avances de la seguridad electrónica desde 1970 a la fecha

 

1. Introducción a la seguridad electrónica

La seguridad en las últimas décadas ha ganado terreno en todos los ámbitos, siendo necesario ya no solo a nivel militar o de grandes corporaciones, sino a todos los niveles. Es necesario tener una comunicación segura que evite la manipulación de datos, su pérdida o acceso no autorizado, y esto es aplicable a todos los entornos, tanto en el manejo de nuestros datos personales y bancarios como en el ocio, hasta en los sistemas de control críticos que controlan los sistemas de suministros o la distribución de energía.

El término seguridad electrónica comprende todos los métodos para proteger o salvaguardar la información de sistemas cibernéticos y computacionales de los usuarios, desde archivos individuales hasta bases de datos y sistemas completos. Se relaciona con la privacidad, confidencialidad, integridad, autenticidad y no-repudiación de la información almacenada o en tránsito, incluyendo la protección contra el mal uso, fraude, robo o abuso de los recursos físicos y las amenazas maliciosas (tales como malware o hackers). Una forma de suplir esta necesidad es por medio del cifrado de datos, utilizado para proteger la información enviada vía internet en diversos protocolos. Para ello, se usan algoritmos de cifrado que son conocidos desde hace ya varios siglos, como César, Vigenère o Playfair. Todos estos están basados en algoritmos matemáticos utilizando llaves.

2. Desarrollo de la seguridad electrónica en la década de 1970

Se caracteriza por el desarrollo de la electrónica comital. También comienza el diseño de un sistema operativo por IBM, denominado IBM DOS. En 1976 nace Microsoft producto de la amistad entre Bill Gates y Paul Allen, iniciando el desarrollo del sistema operativo para la IBM-PC, denominado MS-DOS. También en 1976 se publicó por completo el diseño del recién creado algoritmo de criptografía simétrica Data Encryption Standard (DES) de IBM, lo que permitió a otras empresas copiar su diseño e implementarlo con sus productos. Uno de los primeros productos de código abierto fue OpenBSD desarrollado por los fundadores de NetBSD, variantes de BSD presentada en 1977, basados en UNIX, competencia de MS-DOS, que sustituyó a UNIX como sistema operativo dominante. Dos años más tarde, la USENET y UNIX logran por vez primera extender el software. Los diseñadores de UNIX y dispusieron de una estructura de código fuente compatible con las expectativas de los programadores, permitiendo así que los UNIX Tom Truscott y Jim Ellis reclutaran más desarrolladores y diseñaran UUCP. El núcleo y los miembros de la USENET posteriormente modificaron el núcleo de sus ordenadores para que interoperara con los de otros.

Siguiendo con el panorama, en 1978 Kildall publica el sistema operativo CP/M (Control Program / Sistema Operativo Micro), por encargo de Intel, para lo que sería el primer microprocesador de 16 bits (Intel 8086). Intel decidió perseguir otros objetivos y en lugar de enfrentarse a IBM, hizo que IBM se dirigiera a su compañero de viaje de la industria de los semiconductores, Motorola, que no tenía microprocesadores tan buenos como los procesadores de dieciséis bits de Intel. Un microprocesador no es de ningún uso si no tiene software, por lo tanto IBM llega a un acuerdo con Digital Research, la empresa de Gary Kildall, para comprar CP/M-86.

En 1980 nace el gigante Microsoft de la mano de dos amigos, Bill Gates y Paul Allen. Cuando han constituido la empresa, firman un acuerdo con IBM, a la sazón líder del mercado de la informática, por el cual IBM utilizará un sistema operativo conocido entre pocas empresas. Obviando una rectificación de que indagaré en otra entrada, IBM ha comprado el sistema operativo MS-DOS de Microsoft. La venta de dicho sistema operativo generará a Microsoft enormes beneficios.

3. Innovaciones clave en la década de 1980

Probablemente, no había ningún tema en seguridad electrónica (al menos en el lado del fabricante) que confrontara más a los usuarios con los proveedores al inicio de esta década que el formato para definir el almacenamiento de señales de monitoreo en cinta. Mientras Honeywell prefirió optar por el suyo propio, fabricantes belgas como Meritron o Novika se decantaban por el ¼ de pulgada. La tarea de unificación recayó en la Security Industry Association que en su convención de Arizona en 1980 proclamó el formato VHS (aunque originalmente fuera desarrollado para grabación de video comercial y usado por fabricantes como Mitsubishi para lanzar sus video-caseteras VCR). El camino de Betamax fue sin embargo el escogido por numerosos fabricantes de automatismo como Bosch, Borries y Videcon, así que ambos siguieron un camino paralelo en la monitorización de señales de alarmas hasta mediados/no finales de la década.

Ocurre igual con la lucha comercial entre fabricantes de sistemas propietarios; es decir aquellos en que cada fabricante basaba su sistema en componentes fabricados específicamente para su uso por una empresa dedicada a ello en exclusiva. Sendix, Menvier (posterior Scantronic), Aritech, Scantronic (posterior Risco Group) o Galaxy (ahora Honeywell) para soluciones de intrusión y los ya mencionados Bosch y Borries en el caso de procesos de video, constituyeron los misteriosos espacios en los que se basaban los sistemas tradicionalmente. El propietario no confesado: IBM, Siemens, Dec, Dynacord, Hewlett Packard, Sanyo, etc. que usualmente controlaban el sector de mercado al que pertenecía mediante patentes y acuerdos de adquisición imposibilitando al resto de participantes la adaptación de sus productos y servicios al ritmo de los avances técnicos.

4. Evolución de la seguridad electrónica en los años 90

20. Los equipos que proporcionaban seguridad electrónica presentaban diferentes códigos de acceso que debían ser desactivados para el inicio del motor. Esto generaba demoras, razón por la cual se buscaron adelantos en cuanto a desactivación por medio de un código especial de cada seguridad o entre un tiempo de retardo parametrizado luego de oprimir el botón, según los datos del usuario, en combinación con un lector de códigos por barras.

21. Los sistemas flexibles y microprocesadores se ganaron un lugar, puesto que la tecnología avanzaba a pasos muy acelerados. Por medio de estos dispositivos, se usaron sistemas con más prestaciones y mejores controles.

22. En 1995, la industria automotriz, atenta a la problemática del contexto, comienza a incorporar a los modelos de baja, media y alta gama, por medio de abonos mensuales a empresas especializadas, para otorgar sistemas de seguridad con opciones a nazca combinado con arranque del motor, a celulares, capacidades de recibir señales del ayudar a familiares a confección de actitudes de manejo y más, en caso de supuestos desastres automovilísticos.

5. Tecnologías emergentes del siglo XXI

Telemática (1973): Nace de la mezcla de las telecomunicaciones con la informática. Estos sistemas de alarmas podían ser monitoreados a kilómetros de distancia.

RFID (1973): Conocido como sistema de identificación por radiofrecuencia, es una tecnología que permite la identificación automatizada de cosas. Consiste en una pequeña etiqueta que contiene un circuito y una antena que puede ser leída a distancia.

La biometría (1974): Estudia los métodos automatizados de identificación que identifican a las personas sobre una característica o conjunto de características físicas, como pueden ser la cara, la huella dactilar, la escritura a mano, la voz y la forma de andar o al caminar, así como en una característica o la manera de comportarse de las personas, es decir, lo que se refiere a la conducta, como manera de teclear, entre otras características que pueden ser específicas de una persona. Se inició desde principio de la década de los 70. El uso de lectores de huellas dactilares es actualmente una modalidad frecuente de control de acceso y presencia de trabajadores (se integraban solo 1000 trabajadores a la hora y dicho equipo costaba alrededor de 15 mil dólares). Antes, a los centros laborales lo que les preocupaba era controlar la hora de salida de las personas, pero se observó que lo importante para controlar el volumen de personal eran las personas que no ingresaban. Entonces se orientó el sistema de "asistencias" al concepto de "control de accesos".

6. Impacto de la inteligencia artificial en la seguridad electrónica

Hoy en día, las soluciones de seguridad que solo incluyen herramientas de análisis de video basadas en normas de programación no son óptimas, se necesita la IA. Con la IA, las soluciones se vuelven más efectivas, ya que las reglas no contemplan todas las situaciones posibles, de tal manera que siempre estás perdiendo detalle o permitiendo situaciones no válidas. Una de las soluciones más modernas y efectivas es el uso de Deep Learning, técnica también de IA. Esta técnica se basa en el diseño de algoritmos parecidos a los utilizados en las redes neuronales en el cerebro humano. ¿Por qué es importante que la solución de inteligencia artificial se base en esta técnica? Los seres humanos, por su capacidad inteligente, a través de ella, podemos fácilmente estudiar y aprender de situaciones del fuero nacional o internacional y aplicar el conocimiento adquirido a situaciones de país o de la localidad que enseñaban asesores con el fin de mejorar la seguridad del entorno en que se encuentran. En teoría simplista, el Deep Learning o Redes Neuronales Simples se basan en el mismo concepto cerebral, de manera que crecen por la aplicación de técnicas y datos crecientes de evidencia. A casi 70 años de vida, ya hay organizaciones cuyo beneficio es demostrable.

Hoy en día, estas soluciones están desarrolladas y se usan generalmente individualmente, ya que requieren un algoritmo muy propio para su operación. Si bien en el último tiempo están surgiendo soluciones conjuntas varias bases de datos y aplicaciones que demandan prácticamente a la medida del cliente. Pero hay un beneficio palpable, como el crecimiento de la solución por lo ya señalado. Adicionalmente, se puede expresar como el logro mayor en la velocidad de respuesta por su provisionamiento.

7. Tendencias actuales y futuras en seguridad electrónica

Tendencias actuales y futuras en seguridad electrónica para la protección lógica de la información

La tecnología digital en constante evolución desató una verdadera revolución técnica, ampliando los conceptos de almacenamiento y manejo de la información, y liberándola de los mecanismos conocidos hasta entonces. Bajo este prisma, la información lógica ha merecido y otorgado la atención de programadores, técnicos y comisiones multidisciplinarias que se ocupan de su protección y qué hacer en caso de pérdida frente a robos y fugas, lo que ha derivado en una serie de novedosas técnicas de protección.

Se pueden identificar las siguientes tendencias en el desarrollo tecnológico de los sistemas y los métodos de protección de la información lógica en los próximos años:

- Incremento del software malicioso.

- Explotación de software y tecnología.

- Vulnerabilidad de sistemas y dispositivos IoT (Internet of Things) en la nube (Cloud back end) o edge (Edge nodes).

- Incremento de los ataques a la información.

- Destrucción selectiva.

- Fuga de información.

- Explotación de dispositivos en una tendencia ya existente.

- El atacante busca el camino de acceso e irá dando tumbos en caso de encontrar algún dispositivo mal configurado o al cual pueda ingresar.