TECNICTURA EN INFORMATICA
INFORMATICA
UNIDAD Nº 2
LIC. CONTRERAS P.
SÍMBOLO
A todo aquello que por conversión nos remite a algo
que no necesariamente necesita estar presente.
Entendemos algo como símbolo, lo interpretamos, tiene significado,
cuando este responde a lo que significa. O sea cuando podemos
establecer una relación entre el símbolo y lo que constituye su
significado, de acuerdo a cierta convención.
Se dice que el hombre es un "animal simbológico" en el sentido que no necesita
considerar a entes y sucesos en sí mismo, sino que puede referirse a ellos
mediante símbolos.
Las propiedades o cualidades que determinan entes y sucesos(fenomeno), al ser
representados simbólicamente constituyen lo que denominamos ATRIBUTOS
de los mismos. Pueden representarse en forma oral o escrita.
Los Atributos permiten
Identificar
Describir
Localizar
Relacionar
Etc.
De una manera
simbólica sucesos y
entidades por sus
propiedades
Atributo
Nombre
DNI
Fecha Nac
Domicilio
Altura
Valor
Juan Corti
18.135.543
02/02/1978
Mitre 575
Oeste
1,75 m
En general los atributos conocidos como entes y sucesos son "DATOS", que
sirven de referencia con vistas a algún accionar concreto, presente o futuro.
El hombre opera con representaciones simbólicas que determinan
hechos, entes, conceptos, ordenes, situaciones, etc, a partir de las cuales
decide un curso de acción entre varios posibles
DATOS
Representaciones simbólicas de propiedades o cualidades de entes y
sucesos, que pueden ser requeridos en un cierto momento como
antecedentes para decidir la mejor manera de llevar acabo una
acción concreta
DATOS
Tienen la propiedad de
 Transmitir (para llevarlos de un lugar a otro, o para comunicárselos a alguien)
 Almacenar (para su posterior uso)
 Transformar ( operando sobre ellos con ciertas reglas, para obtener
nuevos datos).
INFORMACION
Definimos como información a todas aquellas representaciones simbólicas que
por el significado que se les asigna quien la reciba e interpreta, contribuyen a
disminuir la incertidumbre de forma que pueda decidir un curso de acción entre
varios posibles.
Datos
Operaciones
sobre datos
Información
"si" …( condición A)...entonces (acción A)
"si“ ...(condición B)... entonces (acción B)
"si" ( condición A)...entonces accionar A,
"si"...
... entonces
…
Decisión
Dado que la información consiste en representaciones simbólicas
significativas en función de ciertas acciones a realizar, puede
ocurrir que aquello que es información para una persona no lo sea
para otra. Los símbolos pueden aportar informacion para quien
pueda interpretarlos, para quien tienen sentido
La Información
No solo sirve para decidir cuál es el mejor accionar
para lograr un objetivo.
Tomada una decisión por un determinado curso de acción, para concretarlo se
requiere saber que acciones hacen falta realizar, y en que secuencia.
Se trata de información descriptiva, sin la cual no se puede efectuar la
acción.
En el caso de las computadoras, esta involucrada en
los programas, que indican la secuencia de operaciones a
realizar para alcanzar el resultado deseado.
Información de Control
Útil para verificar que un determinado accionar se ha efectuado
correctamente. Así, cada vez que hacemos una resta, podemos
verificarla mediante una suma.
DIFERENCIA ENTRE DATOS E INFORMACIÓN
DATOS
Son representaciones simbólicas
de entes, hechos, atributos, etc,
INFORMACION
Alude a aquellos datos que por el
significado que le atribuye quien necesita
decidir una acción entre varias, permite
tomar tal decisión con la menor
incertidumbre posible.
La diferencia así establecida entre datos e información se manifiesta
especialmente en el ámbito de la computación.
La información consta de datos,
pero no todos los datos constituyen información.
CONCEPTOS DE TEORÍA DE LA INFORMACIÓN
Si consideramos un fenómeno cualquiera, y si tal fenómeno es invariable, o sea
totalmente determinado, no se puede aprender nada de él, no se puede decir
nada nuevo, de manera que
"No hay información si no se trata de un elemento variable".
“Sea un elemento variable,
cuyos finitos cambios de estado, sean imprescindible, se define como
información, cuando hay una determinación del estado actual del fenómeno".
Fuentes de información
El cerebro del hombre, a través de las ideas.
 La modificación de los estados
ambientales.
Los censos poblaciones (número de
habitantes de una población).
Podemos deducir que cuando más rápido sea el cambio impredecible,
mayor es la cantidad de información.
Información
Contribuye a disminuir la incertidumbre que
se tiene acerca de cuál es el mejor camino
para resolver un problema.
Se refiere a lo desconocido, a aquello que no
La incertidumbre se sabe se sucederá, ya lo que es inesperado,
imprevisible.
Una información permite tener una certeza de la existencia u ocurrencia de
algún suceso o aspecto de la realidad, a la vez que disminuye el grado de
incertidumbre que se tenía para tomar una decisión.
MEDIDA DE LA INFORMACIÓN
Si examinamos con detalle el contenido de información de un
mensaje,
podemos ahorrar esfuerzo en su transmisión desde un punto a otro.
Ejemplo
Si deseamos enviar un telegrama de felicitaciones por un hecho
determinado (casamiento, nacimiento, etc), la compañía de telégrafos
enviará un texto estándar típico.
Un sentido intuitivo podemos ver que algunos mensajes largos no
contienen gran información.
CANTIDAD DE INFORMACIÓN
EN 1946, Claude Shannon desarrolló su "teoría Matemática de las
Comunicaciones", en donde se planteó el objetivo de hacer lo más eficiente
posible la transmisión de información. Por ejemplo transmitir mensaje lo mas
rápidamente posible y con el número mínimo de errores.
Hay un límite en la tasa de información que puede ser transmitida por un
sistema. Este límite es la capacidad de información, la cual viene determinada
por las limitaciones físicas fundamentales en la transmisión de información.
Shannon se planteó primero, que dado un conjunto de posibles mensajes que
una fuente puede transmitir, ¿cómo pueden ser representados estos mensajes
de la mejor manera posible para llevar la información sobre un sistema con sus
limitaciones inherentes? .
Para tratar este problema, es necesario concentrarse en la
"información", más que en las señales eléctricas de comunicación, y por
esta razón el trabajo de Shannon fue rebautizado como Teoría de la
Información.
Dado que la información no es material ni tangible, se requiere para
transmitir
que sea señalizada en alguna forma que pueda llegar al receptor codificada.
Hay que recordar, que Shannon desarrolló su teoría de acuerdo a un esquema:
•La medida de la información.
La Teoría de la
Información trata
con tres conceptos
básicos:
Estos conceptos pueden
ser enlazados por el
teorema fundamental de la
teoría
de la información que dice:
•La capacidad de un canal o sistema de transmisión
para transferir información.
•La codificación como un medio de utilizar los
sistemas a máxima capacidad
"Dada una fuente de información y un canal
de comunicación, existe una técnica de
codificación, tal que la información puede
ser transmitida sobre el canal con una tasa
menor que la capacidad del canal y con una
frecuencia de errores arbitrariamente
pequeña a pesar de la presencia de ruido".
Nos planteamos las siguientes preguntas:
¿Cómo se mide la información?
¿A qué nos referimos cuando decimos cantidad de
información?
¿ como se mide la capacidad de un sistema o canal?
¿Cuáles son las características de eficiencia de un proceso
de codificación?
¿Cómo se puede minimizar los efectos indeseables de
factores exógenos?
TENSION ELECTRICA
1
PILA
0
Letras
A
B
C
D
E
F
G
H
Cod Binario
000
001
010
011
100
101
110
111
Antes de comenzar la transmisión, el receptor tiene una incertidumbre
total de cual será el mensaje a recibir. Como la fuente tiene "8" elementos
(letras A a la H), y como todas tienen la misma probabilidad de emitirse
(sistema
equiprobable), la incertidumbre tiene una probabilidad de:
P = 1/8 = 0,125 =12,5 %
Supongamos, que la primera medición indica ausencia de tensión eléctrica, o
sea que ha llegado un "0". Ahora sabemos que la letra estará entre las cuatro
primeras, ya que ellas son las que comienzan con "0".
A = 000
B = 001
C = 010
D = 011
Ahora la probabilidad de que llegue una letra es de:
P = 1/4 = 0,25 = 25 %
Si en el segundo periodo, medimos y nos encontramos que existe una
tensión eléctrica, estamos ante la presencia de un "1", con lo cual se
reduce la incertidumbre por cuanto solo hay dos posibilidades:
C = 010
D = 011
La probabilidad aumenta a:
P = 1/2 = 0,5 = 50 %
suponemos que después de la tercer medición obtenemos que existe ausencia
de tensión eléctrica, o sea que llegó otro "0", estaremos ante la única alternativa
posible:
C = 010
En este caso la probabilidad será:
P = 1/1 = 1 = 100 %
La llegada de un símbolo duplica la probabilidad, disminuyendo en la misma
proporción la incertidumbre de la llegada de un símbolo.
Podemos decir que la incertidumbre era:
Antes de comenzar a transmitir era = 1 = 100 %.
Después de la llegada del primer símbolo (0) = 0,75 = 75 %.
Después de la llegada del segundo símbolo (1) = 0,75 = 50 %.
Después de la llegada del tercer símbolo (1) = 0 = 0 %.
O sea, con cada llegada de símbolo la incertidumbre se reduce, hasta llegar a la
incertidumbre nula, cuando la probabilidad es del 100%.
Si en vez de tener que transmitir 8 letras se necesita transmitir 16 letras,
hacen falta 4 variables binarias, ya que:
2n = 24 = 16
Para poder codificar todo el alfabeto (27 letras) se necesitarían 5
variables
binarías, ya que:
2n = 25 = 32
En este caso nos sobrarían combinaciones.
Para codificar más símbolos, como ser las letras más los números (0 al
9), y
algunos otros códigos de control se utilizan "n = 7" ó "n = 8" elementos,
dependiendo del tipo de código.
Como podemos apreciar, que ahora los mensajes contienen mayor "cantidad
de información", ya que para cada letra debemos transmitir 7 u 8 elementos.
Generalizando, si tenemos una fuente con
"N = 2n" mensajes posibles a trasmitir, se requerirá combinar un número
mínimo "n" de elementos binarios para codificar cada uno de los "N".
Conocido "N", por definición de logaritmo será:
n = log2 N
De acuerdo a la teoría de la información, puede definirse la cantidad de
información de un mensaje "I", como: "el número mínimo "n" de elementos
codificados en binarios necesarios para identificar el
mensaje entre un total de "N" mensajes posibles".
O sea:
I = n = log2 N
Resulta practico relacionar la cantidad de información de un mensaje con el
grado de probabilidad de ocurrencia del mensaje.
De acuerdo a lo que ya vimos en el ejemplo anterior, la probabilidad de
ocurrencia es:
P = 1/N
Resulta que:
N = 1/P
O sea que:
I = log2 1/P = log2 P-1 = - log2 p
I = log2 1/P = log2 P-1 = - log2 p
Expresión que relaciona la cantidad de información con la probabilidad de que
ocurra un evento. Para poder medir la "cantidad de información", es necesario
medir la UNIDAD de medida. Como todas las unidades se debe utilizar una
convención para determinarla.
Para ello, se define como "unidad de cantidad de información “ la obtenida al
especificar una de las dos alternativas igualmente probables, llamándose [bit] a
esa unidad.
La palabra bit, define la unidad de cantidad de información, y se obtiene por
contracción de las palabras inglesas "binary digit'.
Entonces podríamos decir que información es lo que reduce la incertidumbre,
por consiguiente, puede afIrmarse intuitivamente que:
La cantidad de información es una función f(P) decreciente al aumentar
la probabilidad P de un proceso. La información relativa aun suceso
cierto es nula
f(1) = 0; y f(0) = 00
En el caso de dos posibilidades igualmente probables (caso de la moneda), la
probabilidad es:
P = NE
Donde: N = cantidad de variables y E = cantidad de elementos. Entonces por
definición, cantidad de información es:
I = log2 NE [bit] (1)
El caso de la moneda lanzada al aire es: N = 2 ( las dos alternativas, cara y cruz) y E
= 1 (la moneda).
Aplicando la formula: (1):
I = log2 NE = log2 21 = l[bit]
INFORMACIÓN MUTUA
Consideremos una fuente que produce varios mensajes. Sea A uno de los
mensajes, y PA su probabilidad que sea elegido para su transmisión Mutua
asociada con A como:
IA = f(PA)
Donde la función "PA" debe ser determinada. Para encontrar f(PA), es intuitivo
suponer los siguientes requerimientos:
f(PA) >= 0 donde 0 <= PA <= 1
limPA _l f(PA) = 0
f(PA) > f(PB) para PA < PB
Existen muchas funciones que satisfacen las tres anteriores, pero la decisión
final se obtiene al considerar la transmisión de mensajes independientes.
Cuando el mensaje "A" es entregado al usuario, este recibe "IA" unidades de
información. Cuando es entregado un segundo mensaje, la información total
recibida debería ser la suma de las informaciones mutuas: IA + IB.
Esto es fácil de ver si consideramos que "A" y "B" vienen de diferentes fuentes.
Pero supongamos que "A" y "B" provienen de la misma fuente: podemos hablar
entonces del mensaje compuesto:
C = AB.
Si " A" y "B" son estadísticamente independientes tenemos:
PC = PA * PB ------ IC = f(PA * PB)
Pero la información recibida es:
IC = IA + IB = f(PA) + f(PB)
Y así:
f(PA * PB) = f(PA) + f(PB)
Que es el requerimiento para f(PC).
Hay una sola ecuación que satisface las condiciones anteriores, y es la función
logarítmica "f(x) = logb (x)". Donde "b" es la base del logaritmo.
Así la información mutua en definida como:
IA = logb 1/PA
Como 0 < PA < 1, el logaritmo es positivo, como se desea.
Si especificamos la base "b" del logaritmo, podemos determinar la unidad
de
información.
Lo más usual es tomar "b = 2" denominándose la unidad así determinada
como
[bit], como ya habíamos determinado anteriormente. Si PA = PB = 1/2,
entonces:
IA = IB = log2 2 = 1 [bit]
Descargar

Diapositiva 1 - primero