domingo, 13 de septiembre de 2020

El cifrado es menos seguro de lo que pensamos

La teoría de la información, la disciplina que nos brindó la comunicación digital y la compresión de datos, también colocó a la criptografía en una base matemática segura. Desde 1948, cuando apareció por primera vez el artículo que creó la teoría de la información, la mayoría de los análisis de la teoría de la información de los esquemas seguros han dependido de un supuesto común.

Desafortunadamente, como demostró un grupo de investigadores del MIT y la Universidad Nacional de Irlanda (NUI) en Maynooth en un artículo presentado en el reciente Simposio Internacional sobre Teoría de la Información (ver PDF), esa suposición es falsa. En un documento de seguimiento que se presentó este otoño en la Conferencia Asilomar sobre Señales y Sistemas, el mismo equipo muestra que, como consecuencia, los lectores de tarjetas inalámbricos utilizados en muchos sistemas de entrada sin llave pueden no ser tan seguros como se pensaba anteriormente.

En teoría de la información, el concepto de información está íntimamente entrelazado con el de entropía. Dos archivos digitales pueden contener la misma cantidad de información, pero si uno es más corto, tiene más entropía. Si un algoritmo de compresión, como WinZip o gzip, funcionara perfectamente, el archivo comprimido tendría la máxima entropía posible. Eso significa que tendría el mismo número de 0 y 1, y la forma en que se distribuyeran sería totalmente impredecible. En el lenguaje de la teoría de la información, sería perfectamente uniforme.

Tradicionalmente, los análisis teóricos de la información de esquemas seguros han asumido que los archivos fuente son perfectamente uniformes. En la práctica, rara vez lo son, pero están lo suficientemente cerca como para parecer que los análisis matemáticos estándar aún se mantienen.

"Pensamos que estableceríamos que la premisa básica que todos estaban usando era justa y razonable", dice Ken Duffy, uno de los investigadores de NUI. "Y resulta que no lo es". En ambos artículos, Duffy está acompañado por su alumno Mark Christiansen; Muriel Médard, profesora de ingeniería eléctrica en el MIT; y su alumno Flávio du Pin Calmon.

El problema, explica Médard, es que los análisis de la teoría de la información de los sistemas seguros generalmente han utilizado la noción errónea de entropía. Se basaron en la llamada entropía de Shannon, que lleva el nombre del fundador de la teoría de la información, Claude Shannon, quien enseñó en el MIT de 1956 a 1978.

2 comentarios: