criptografia

criptografia

(Parte 1 de 9)

Criptografia

Prof. Ricardo S. Puttini, MSc

Departamento de Engenharia Elétrica Universidade de Brasília mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Conteúdo

•Princípios de Teoria da Informação •Introdução aos Sistemas Criptográficos

• Criptografia Simétrica

• Criptografia Assimétrica

•Funções de Condensação (Hash Functions)

•Infra-estrutura de Chaves Públicas (ICP) mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Princípios de Teoria da Informação

•O problema da codificação consiste na busca de formas eficientes de representação da informação:

–Economia de símbolo utilizados (compressão);

–Proteção contra erros (detecção/correção de erros);

–Serviços de segurança da informação (criptografia).

•Teoria da Informação: construção de modelos matemáticos para linguagem.

•Linguagem: conjunto de características da informação que se deseja codificar.

mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Quantidade de Informação

•Teoria de Shannon (1948): modelo probabilístico para a linguagem.

•Quantidade de Informação

I(E) = -log2 p(E)

•A base 2 do logaritmo permite que a quantidade de informação seja medida em bits

• Exemplos:

–E1 = “o sol nascerá amanhã”; p(E1) = 1 ®I(E1) = 0 –E2 = “ao lançar-se a moeda, obteve-se cara”;

mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Princípios de Teoria da Informação

•Exemplo: Considere uma fonte que gere símbolos 0’s e 1’s de forma independente e equiprováveis. Então, a quantidade de informação obtida pelo conhecimento de “n” bits de uma seqüência gerada por essa fonte é:

•Isto é, a quantidade de informação contida em uma seqüência de n bits é igual n bits.

nSI n =÷ ł

mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Entropia

•Entropia é a quantidade de informação contida em um evento qualquer, i.e. a quantidade de informação média de um evento típico.

•É uma medida da incerteza associada a uma ocorrência de um evento: quanto maior a entropia, maior a incerteza associada ao evento.

valores com probabilidades p1, p2,, pn, tem-se a seguinte

•Para uma v.a. X, que pode assumir um número finito de definição de entropia:

i i ppXH 1 mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Entropia

•Entropia conjunta de um vetor X = [A,B], onde A e B são v.a. assumindo um número finito de valores:

•Note que:

ji jiji bBaApbBaApBAHXH ,

mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Entropia

•Dado duas v.a. X e Y, a incerteza acerca de X, dado que uma ocorrência particular de Y é conhecida pode ser expressa como:

•Define-se entropia condicional, H(X/Y), ou equivocação de X dado Y por:

•Assim, a entropia condicional representa a incerteza em relação a uma ocorrência de X, quando uma ocorrência de Y é conhecida.

mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Propriedades da Entropia

I) Se X e Y são v.a. independentes:

mai-04 Criptografia Prof. Ricardo Staciarini Puttini

Informação Mútua

•É a quantidade de informação que a ocorrência de um evento Y = y fornece a respeito da ocorrência de um evento X = x:

(Parte 1 de 9)

Comentários