11 febrero 2007

DEFINICIONES:


SINERGIA (SINERGY)


La sinergia es referente a la unión de una serie de elementos que analizados por separados no contienen ninguna de las características que poseen como un todo y este todo es llamado un objeto sinérgico. Así mismo este objeto sinérgico puede estar compuesto a su vez por elementos que también lo son este es el concepto de recursividad.

En medicina la sinergia hace referencia a dos o mas drogas que actúan entre si y su efecto es mas efectivo que el de cada una por separado, en biología se define como el sistema de varios órganos que de forma activa y concertada realizan una función.

Otro ejemplo son los sistemas sociales los cuales son siempre sinérgicos, un modelo de éstos es una escuela, ninguna de las partes de ésta produce aisladamente personas totalmente capacitadas para ser miembros activos de una
sociedad. Otro ejemplo podría ser un avión ya que es un conjunto de varios elementos pero si los analizamos cada uno por separado ninguno puede realizar el objeto final de un avión volar y por esto se dice que es un objeto sinérgico.

http://es.wikipedia.org/wiki/Sinergia
“sinergia.” Microsoft encarta 2006. Microsoft corporation.2205.


HOMEOSTASIS

La homeostasis el la propiedad de un sistema cuando da respuesta o se adapta al contexto, cuando en el entorno se experimentan ciertos cambios y un sistema sufre transformaciones estructurales para sopórtalos se esta dando una supervivencia dinámica en este proceso de evolución.

Si hablamos propiamente en el ser humano la homeostasis regula los mecanismos encargados de conservar el equilibrio y estabilidad del medio interno del que depende la salud del cuerpo.

En los sistemas cibernéticos la homeostasis es el sistema autorregulador para mantener las variables en ciertos límites solo cambiando parámetros de su estructura interna.

· PETER Alexander, BIOLOGIA, prentice hall. Englewood New Jersey, 1992.
·
http://es.wikipedia.org/wiki/Homeostasis#Homeostasis_cibern.C3.A9tica
· http://www.monografias.com/trabajos5/teorsist/teorsist.shtml
· http://ap.concytec.gob.pe/fanning/homeostasis/index.htm


ENTROPIA (ENTROPY)

La entropía es entendida como el grado de “desorden” de un sistema, y es igual a la cantidad de información media de un mensaje; se calcula al sacarle el logaritmo en base dos del número de mensajes posibles.

Por ejemplo si enviamos un mensaje que esta formado por combinaciones aleatorias de las 26 letras del alfabeto ingles, el espacio en blanco y los signos de puntuación y suponemos que la probabilidad de cada mensaje es la misma obtenemos que la entropía de dicho mensaje seria 5, esto significa que necesitaríamos 5 bits para codificar cada mensaje.

Shannon en su artículo de 1948 Mathematical Theory of Communication ("Una Teoría Matemática de la Comunicación", en inglés).ofrece una definición de entropía en donde se establece que la medida de información debe ser proporcional o continua y que si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces, la entropía será máxima.

· http://es.wikipedia.org/wiki/Entrop%C3%ADa_%28informaci%C3%B3n%29
· “teoría de la información.” Microsoft Encarta 2006. Microsoft corporación. 2005.


EQUIFINALIDAD

Cuando estamos hablando de sistemas cuando se obtienes resultados estos no están determinados por sus condiciones iniciales sino por el proceso que se realiza en ese sistemas; es por eso que cuando obtenemos resultados iguales de dos sistemas diferentes estos no necesariamente tuvieron el mismo origen; pero así mismo dos resultados diferentes pudieron se producidos por las mismas causas.

Esto sugiere que no podemos observar un sistema en un solo punto porque una causa no solo genera una consecuencia ya que esto depende de la naturaleza del sistema.

Por ejemplo, si tenemos:

Sistema A: 4 x 3 + 6 = 18 Sistema B: 2 x 5 + 8 = 18

Aquí observamos que el sistema "A" y el sistema "B" tienen inicios diferentes, y que, cada uno, tiene elementos diferentes al otro. Sin embargo, el resultado final es el mismo.


http://perso.wanadoo.es/aniorte_nic/apunt_terap_famil_2.htm


RETROALIMENTACION (FEEDBACK)


La retroalimentación de un sistema consiste en reacoger la información de los efectos de sus decisiones internas en el medio, esta información actúa o hace efecto en las acciones sucesivas. Mediante los mecanismos de retroalimentación, los sistemas regulan sus comportamientos de acuerdo a sus efectos reales.

Existen dos tipos de retroalimentación:

Retroalimentación negativa

Este concepto está asociado a los procesos de autorregulación u homeostáticos. Los sistemas con retroalimentación negativa se caracterizan por la manutención de determinados objetivos. En los sistemas mecánicos los objetivos quedan instalados por un sistema externo (el hombre u otra máquina).

Retroalimentación positiva

La retroalimentación positiva está asociada a los fenómenos de crecimiento y diferenciación. Cuando se mantiene un sistema y se modifican sus metas nos encontramos ante un caso de retroalimentación positiva. En estos casos se aplica la relación desviación-amplificación.

· http://www.moebio.uchile.cl/03/frprinci.htm

No hay comentarios: