26 febrero 2007
HISTORIA DE LA COMPUTACION
desde siempre el hombre ha agrupado las cosas utilizando diferentes cálculos matemáticos, esto era de gran ayuda para poder comprender su entorno, de aquí nacieron los diferentes sistemas numéricos.
3000a.d.c-- el primer instrumento de calculo fue el ábaco creado y desarrollado por los egipcios y babilonicos, este fue derivado de los primeros cálculos con piedras.
XVI-XVII-- en respuesta al creciente comercio europeo se creo la necesidad de implementar nuevos sistemas de cálculos mas eficientes y así se originaron nuevas reglas de calculo como lo son los logaritmos de neppel y también se desarrollaron nuevas maquinas que facilitaron este proceso de calculo.
XVIII-- en este periodo de la historia se da la aparición de Charles Babbage, quien es conciderados el padre de la informática, quien mejoro las maquinas creadas en los siglos anteriores para disminuir la intervención del hombre en el proceso y así disminuir también la probabilidad de error.
XIX-- se creo la MARK I una maquina capas de realizar cálculos en tan solo tres segundos, esta maquina fue creada por Howard Aiken.
1941-- se desarrollaron las maquinas computadoras, en donde los operadores ingresaban datos y programas en códigos especiales por medio de tarjetas perforadas.
1950-- J. Prisper y John W. desarrollan la UNIVA_ la cual fue utilizada para realizar el censo de ese año
la IBM comenzó en este año a construir computadoras electrónicas y a llevarlas al mercado.
1955--. la IBM obtuvo el liderazgo en la producción de computadoras gracias a la IBM640 la cual era en esa época relativamente económica.
1956-- se les concedio el premio nobel de la fisica a los tres inventores del transistor: John Bardeen, Walter Brattain y William Shorkley.
1959-- para este año muchas compañias ya habían adquirido computadoras para procesar datos de tareas rutinarias como la nomina.
1960-- los tubos de vacío de las computadoras fueron reemplazados por transistores los cuales eran mucho mas económicos y eficientes. lo cual ayudo a ahorrar mas espacio ya que los transistores eran mucho mas pequeños y permitían tener la partes mas juntas.
1961-- IBM afianzo la 360 para que pudiera ser utilizada mas facilmente en los dos campos: científico y procesamiento de archivos; con esto IBM capturo el 70% del mercado.
1969-- DEC digital equipment corporation saca al mercado las minicomputadoras ya desarrolladas en años anteriores.
asi aparecen computadores de distinta capacidad y precio con la misma arquitectura.
1971-- aparecen las memorias de chip de silicio y los microprocesadores que rigen las funciones fundamentales del ordenador. el microprocesador da la aparición de la computadora personal (PC)
11 febrero 2007
DEFINICIONES:
SINERGIA (SINERGY)
La sinergia es referente a la unión de una serie de elementos que analizados por separados no contienen ninguna de las características que poseen como un todo y este todo es llamado un objeto sinérgico. Así mismo este objeto sinérgico puede estar compuesto a su vez por elementos que también lo son este es el concepto de recursividad.
En medicina la sinergia hace referencia a dos o mas drogas que actúan entre si y su efecto es mas efectivo que el de cada una por separado, en biología se define como el sistema de varios órganos que de forma activa y concertada realizan una función.
Otro ejemplo son los sistemas sociales los cuales son siempre sinérgicos, un modelo de éstos es una escuela, ninguna de las partes de ésta produce aisladamente personas totalmente capacitadas para ser miembros activos de una sociedad. Otro ejemplo podría ser un avión ya que es un conjunto de varios elementos pero si los analizamos cada uno por separado ninguno puede realizar el objeto final de un avión volar y por esto se dice que es un objeto sinérgico.
http://es.wikipedia.org/wiki/Sinergia
“sinergia.” Microsoft encarta 2006. Microsoft corporation.2205.
HOMEOSTASIS
La homeostasis el la propiedad de un sistema cuando da respuesta o se adapta al contexto, cuando en el entorno se experimentan ciertos cambios y un sistema sufre transformaciones estructurales para sopórtalos se esta dando una supervivencia dinámica en este proceso de evolución.
Si hablamos propiamente en el ser humano la homeostasis regula los mecanismos encargados de conservar el equilibrio y estabilidad del medio interno del que depende la salud del cuerpo.
En los sistemas cibernéticos la homeostasis es el sistema autorregulador para mantener las variables en ciertos límites solo cambiando parámetros de su estructura interna.
· PETER Alexander, BIOLOGIA, prentice hall. Englewood New Jersey, 1992.
· http://es.wikipedia.org/wiki/Homeostasis#Homeostasis_cibern.C3.A9tica
· http://www.monografias.com/trabajos5/teorsist/teorsist.shtml
· http://ap.concytec.gob.pe/fanning/homeostasis/index.htm
ENTROPIA (ENTROPY)
La entropía es entendida como el grado de “desorden” de un sistema, y es igual a la cantidad de información media de un mensaje; se calcula al sacarle el logaritmo en base dos del número de mensajes posibles.
Por ejemplo si enviamos un mensaje que esta formado por combinaciones aleatorias de las 26 letras del alfabeto ingles, el espacio en blanco y los signos de puntuación y suponemos que la probabilidad de cada mensaje es la misma obtenemos que la entropía de dicho mensaje seria 5, esto significa que necesitaríamos 5 bits para codificar cada mensaje.
Shannon en su artículo de 1948 Mathematical Theory of Communication ("Una Teoría Matemática de la Comunicación", en inglés).ofrece una definición de entropía en donde se establece que la medida de información debe ser proporcional o continua y que si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces, la entropía será máxima.
· http://es.wikipedia.org/wiki/Entrop%C3%ADa_%28informaci%C3%B3n%29
· “teoría de la información.” Microsoft Encarta 2006. Microsoft corporación. 2005.
EQUIFINALIDAD
Cuando estamos hablando de sistemas cuando se obtienes resultados estos no están determinados por sus condiciones iniciales sino por el proceso que se realiza en ese sistemas; es por eso que cuando obtenemos resultados iguales de dos sistemas diferentes estos no necesariamente tuvieron el mismo origen; pero así mismo dos resultados diferentes pudieron se producidos por las mismas causas.
Esto sugiere que no podemos observar un sistema en un solo punto porque una causa no solo genera una consecuencia ya que esto depende de la naturaleza del sistema.
Por ejemplo, si tenemos:
Sistema A: 4 x 3 + 6 = 18 Sistema B: 2 x 5 + 8 = 18
Aquí observamos que el sistema "A" y el sistema "B" tienen inicios diferentes, y que, cada uno, tiene elementos diferentes al otro. Sin embargo, el resultado final es el mismo.
http://perso.wanadoo.es/aniorte_nic/apunt_terap_famil_2.htm
RETROALIMENTACION (FEEDBACK)
La retroalimentación de un sistema consiste en reacoger la información de los efectos de sus decisiones internas en el medio, esta información actúa o hace efecto en las acciones sucesivas. Mediante los mecanismos de retroalimentación, los sistemas regulan sus comportamientos de acuerdo a sus efectos reales.
Existen dos tipos de retroalimentación:
Retroalimentación negativa
Este concepto está asociado a los procesos de autorregulación u homeostáticos. Los sistemas con retroalimentación negativa se caracterizan por la manutención de determinados objetivos. En los sistemas mecánicos los objetivos quedan instalados por un sistema externo (el hombre u otra máquina).
Retroalimentación positiva
La retroalimentación positiva está asociada a los fenómenos de crecimiento y diferenciación. Cuando se mantiene un sistema y se modifican sus metas nos encontramos ante un caso de retroalimentación positiva. En estos casos se aplica la relación desviación-amplificación.
· http://www.moebio.uchile.cl/03/frprinci.htm