domingo, 6 de noviembre de 2016

TGS

LA INGENIERÍA DE SISTEMAS
La ingeniería de sistemas es una carrera universitaria que se encarga del diseño, la programación, la implantación y el mantenimiento de sistemas. A diferencia de otras ramas de la ingeniería, esta disciplina no se ocupa de productos tangibles (los ingenieros civiles, por ejemplo, construyen edificios), sino de productos lógicos.
Ingeniería de sistemas


Por lo tanto, la ingeniería de sistemas implica el uso de nociones matemáticas que permitan concretar la aplicación tecnológica de las teorías de los sistemas. Se trata de una ciencia interdisciplinaria, que requiere de diversos conocimientos para plasmar sus diseños en la vida práctica.
La ingeniería de sistemas permite transformar una necesidad operativa en una descripción de los parámetros del rendimiento de un sistema, con su correspondiente configuración. Por otra parte, posibilita la integración de los parámetros técnicos relacionados de modo tal que las interfaces de programa y funcionales sean compatibles y se garantice el funcionamiento del sistema total.
Al realizar su trabajo, el especialista en esta materia debe asegurar que el sistema cumpla con los principios de fiabilidad, mantenibilidad, seguridad y eficiencia, entre otros.
Además de lo expuesto no podemos pasar por alto el hecho de que todo profesional del sector de la ingeniería de sistemas se encuentra trabajando teniendo en cuenta tres disciplinas o pilares fundamentales. Así, por ejemplo, está la llamada ingeniería de sistemas cognitivos que es la que gira en torno a cuestiones tales como la inteligencia artificial, la ergonomía, la dirección de programadores o el proceso de la información a través de los entes humanos o no humanos.

De la misma forma, la ingeniería de sistemas también está íntimamente relacionada con la investigación de operaciones y con los llamados sistemas de información, es decir, los elementos que funcionan y trabajan conjuntamente con el claro objetivo de poder ayudar a las tareas y actividades de una empresa. Más concretamente contribuyen a respaldar dichas acciones a través de lo que es la entrada, el almacenamiento, el procesado y la posterior salida de la información.
Tres pilares los citados que también se convierten en ejes centrales de otra disciplina que se da en llamar ingeniería en sistemas computacionales que es la que se encarga de analizar a fondo la realidad existente para poder llevar a cabo posteriormente el desarrollo e instalación de sistemas informáticos complejos que sean de gran utilidad.
El ingeniero de sistemas se encarga de las diferentes etapas de un proyecto vinculado a los sistemas. De esta forma, analiza el rendimiento económico, la efectividad de los recursos humanos y el uso tecnológico vinculado a sus creaciones.

LA TEORÍA DE LA DECISIÓN

El problema de la Decisión, motivado por la existencia de ciertos estados de ambigüedad que constan de proposiciones verdaderas (conocidas o desconocidas), es tan antiguo como la vida misma. Podemos afirmar que todos los seres vivientes, aún los más simples, se enfrentan con problemas de decisión. Así, un organismo unicelular asimila partículas de su medio ambiente, unas nutritivas y otras nocivas para él. La composición biológica del organismo y las leyes físicas y químicas determinan qué partículas serán asimiladas y cuáles serán rechazadas.

CARACTERÍSTICAS Y FASES DEL PROCESO DE DECISIÓN
Un proceso de decisión presenta las siguientes características principales:
·         Existen al menos dos posibles formas de actuar, que llamaremos alternativas o acciones, excluyentes entre sí, de manera que la actuación según una de ellas imposibilita cualquiera de las restantes.
·         Mediante un proceso de decisión se elige una alternativa, que es la que se lleva a cabo.
·         La elección de una alternativa ha de realizarse de modo que cumpla un fin determinado.
·         El proceso de decisión consta de las siguientes fases fundamentales:
·         Valoración de las consecuencias de acuerdo con una escala de bondad o deseabilidad. Esta escala de valor dará lugar a un sistema de preferencias.
·         Elección de la alternativa mediante un criterio de decisión adecuado. Este punto lleva a su vez asociado el problema de elección del criterio más adecuado para nuestra decisión, cuestión que no siempre es fácil de resolver de un modo totalmente satisfactorio.
CLASIFICACIÓN DE LOS PROCESOS DE DECISIÓN
Los procesos de decisión se clasifican de acuerdo según el grado de conocimiento que se tenga sobre el conjunto de factores o variables no controladas por el decisor y que pueden tener influencia sobre el resultado final (esto es lo que se conoce como ambiente o contexto). Así, se dirá que:
·         El ambiente es de certidumbre cuando se conoce con certeza su estado, es decir, cada acción conduce invariablemente a un resultado bien definido.
·         El ambiente de riesgo cuando cada decisión puede dar lugar a una serie de consecuencias a las que puede asignarse una distribución de probabilidad conocida.

·         El ambiente es de incertidumbre cuando cada decisión puede dar lugar a una serie de consecuencias a las que no puede asignarse una distribución de probabilidad, bien porque sea desconocida o porque no tenga sentido hablar de ella.
·         Según sea el contexto, diremos que el proceso de decisión (o la toma de decisiones) se realiza bajo certidumbre, bajo riesgo o bajo incertidumbre, respectivamente.
ELEMENTOS DE UN PROBLEMA DE DECISIÓN
En todo problema de decisión pueden distinguirse una serie de elementos característicos:
·         El decisor, encargado de realizar la elección de la mejor forma de actuar de acuerdo con sus intereses.
·         Las alternativas o acciones, que son las diferentes formas de actuar posibles, de entre las cuales se seleccionará una. Deben ser excluyentes entre sí.
·         Los posibles estados de la naturaleza, término mediante el cual se designan a todos aquellos eventos futuros que escapan al control del decisor y que influyen en el proceso.
·         Las consecuencias o resultados que se obtienen al seleccionar las diferentes alternativas bajo cada uno de los posibles estados de la naturaleza.

·         La regla de decisión o criterio, que es la especificación de un procedimiento para identificar la mejor alternativa en un problema de decisión.

La Topología o Matemática Relacional

Incluye campos no métricos tales como las teorías de las redes y de las gráficas. La Topología ha sido reconocida como un área particular de las matemáticas en los últimos 50 años, y su principal crecimiento se ha originado dentro de los últimos 30 años. Es una de las nuevas ramas de las matemáticas que ha demostrado mas poder y ha producido fuertes repercusiones en la mayoría de las antiguas ramas de esta ciencia y ha tenido también efecto importante en las otras ciencias, incluso en las ciencias sociales. Partió como una respuesta a la necesidad del análisis clásico del cálculo y de las ecuaciones diferenciales. Su aplicación al estudio de las interacciones entre las partes de los sistemas (sociales o de otro tipo) es evidente, por ejemplo la teoría de los gráficos como un método para comprender la conducta administrativa. Esta es una gran ayuda para ilustrar las conexiones entre las partes de un sistema.
Los esfuerzos de investigación y de conceptualización que ha habido, a veces han llevado a descubrimientos divergentes. Sin embargo, surgió un enfoque que puede servir como base para lograr la convergencia entre ellos: LA TEORÍA GENERAL DE SISTEMAS, la cual, nos permite el estudio y análisis de cada una de las partes que componen a un sistema, sin dejar a un lado la perspectiva global o general del mismo.
El primer expositor de la Teoría General de los Sistemas fue Ludwing von Bertalanffy, en el intento de lograr una metodología integradora para el tratamiento de problemas científicos.

La meta de la Teoría General de los Sistemas es tratar de evitar la superficialidad científica que ha estancado a las ciencias. Para ello emplea como instrumento, modelos utilizables y transferibles entre varios continentes científicos, toda vez que dicha extrapolación sea posible e integrable a las respectivas disciplinas.

CIBERNÉTICA

La palabra cibernética en griego se refiere a mecanismos precisos de gobierno y control, con Platón y Ampere es usada siempre en su sentido político - social, pero es utilizada por primera vez en referencia a la ingeniería humana por Norbert Wiener.
La cibernética es una disciplina íntimamente vinculada con la teoría general de sistemas, al grado en que muchos la consideran inseparable de esta, y se ocupa del estudio de: el mando, el control, las regulaciones y el gobierno de los sistemas. El propósito de la cibernética es desarrollar un lenguaje y técnicas que nos permitan atacar los problemas de control y comunicación en general.
Lo que estabiliza y coordina el funcionamiento de los sistemas complejos como los seres vivos o las sociedades y les permite hacer frente a las variaciones del ambiente y presentar un comportamiento más o menos complejo es el control, que le permite al sistema seleccionar los ingresos (inputs) para obtener ciertos egresos (outputs) predefinidos. La regulación esta constituida por los mecanismos que permiten al sistema mantener su equilibrio dinámico y alcanzar o mantener un estado.
Un concepto muy importante o casi fundamental en cibernética es el de la retroalimentación. La retroalimentación parte del principio de que todos los elementos de una totalidad de un sistema deben comunicarse entre sí para poder desarrollar interrelaciones coherentes. Sin comunicación no hay orden y sin orden no hay totalidad, lo que rige tanto para los sistemas físicos como para los biológicos y los sociológicos.

La retroalimentación puede ser positiva, negativa o compensada. La retroalimentación es negativa cuando su función consiste en contener o regular el cambio, es positiva si amplifica o multiplica el cambio en una dirección determinada y se dice que es compensada cuando un regulador ejerce alternadamente retroalimentaciones positivas y negativas, según las necesidades del mantenimiento de la estabilidad del sistema regulado. (ejemplo Refrigerador, Temperatura Humana).

Análisis factorial


Análisis factorial es una técnica estadística de reducción de datos usada para explicar las correlaciones entre las variables observadas en términos de un número menor de variables no observadas llamadas factores. Las variables observadas se modelan como combinaciones lineales de factores más expresiones de error. El análisis factorial se originó en psicometría, y se usa en las ciencias del comportamiento tales como ciencias sociales, marketing, gestión de productos, investigación operativa, y otras ciencias aplicadas que tratan con grandes cantidades de datos.
Ejemplo
Es una simplificación con el objetivo de ilustrar el concepto:
Supóngase que un psicólogo propone una teoría según la cual hay dos tipos de inteligencia, “inteligencia verbal” e “inteligencia matemática”. Nótese que estas son inherentemente inobservables. Se busca evidencia para la teoría en las notas de los exámenes, en 10 temas académicos, a 1000 estudiantes. Si cada estudiante es seleccionado al azar de una población grande, luego, las 10 notas de cada estudiante son variables aleatorias. La teoría de los psicólogos diría que por cada una de las diez materias el promedio de todos los estudiantes que comparten un par de valores para la inteligencias verbal y matemática es constante multiplicada por el nivel de inteligencia verbal más otra constante multiplicada por el nivel de inteligencia matemática, es decir, que hay una combinación lineal de estos dos factores. Los números, para este caso particular, mediante el cual los dos tipos de inteligencia se multiplican para obtener una nota determinada, se postulan teóricamente que son similares para todos los pares obtenidos, lo mismo que el peso de los factores para este tema. Por ejemplo, la teoría podría sostener que la aptitud promedio del estudiante en la materia de anfibología es :
{10 x inteligencia verbal} + {6 x inteligencia matemática}
Los números 10 y 6 son los pesos de los factores asociados a anfibología. Otras materias tendrán diferentes pesos. Dos estudiante que obtengan el mismo grado de inteligencia verbal e idéntica inteligencia matemática podrían tener aptitudes diferentes en anfibología porque las aptitudes individuales son diferentes de las aptitudes promedio. La diferencia se denomina “error”, un término estadístico para designar la diferencia que hay entre la nota de un individuo y el promedio para su nivel de inteligencia.
Los datos observables que van en el análisis factorial serían las 10 notas de cada uno de los 1000 estudiantes, un total de 10.000 valores. Los pesos de y los niveles de los factores de las dos clases de inteligencia de cada estudiante se deben derivar de estos datos, así como también el número de factores.
Tipos de análisis factorial
El análisis factorial exploratorio, AFE, se usa para tratar de descubrir la estructura interna de un número relativamente grande de variables. La hipótesis a priori del investigador es que pueden existir una serie de factores asociados a grupos de variables. Las cargas de los distintos factores se utilizan para intuir la relación de éstos con las distintas variables. Es el tipo de análisis factorial más común.
El análisis factorial confirmatorio, AFC, trata de determinar si el número de factores obtenidos y sus cargas se corresponden con los que cabría esperar a la luz de una teoría previa acerca de los datos. La hipótesis a priori es que existen unos determinados factores preestablecidos y que cada uno de ellos está asociado con un determinado subconjunto de las variables. El análisis factorial confirmatorio entonces arroja un nivel de confianza para poder aceptar o rechazar dicha hipótesis.
Aplicaciones
El análisis factorial se utiliza para identificar factores que expliquen una variedad de resultados en diferentes pruebas. Por ejemplo, investigación en inteligencia halla que la gente que obtienen una nota alta en una prueba de habilidad verbal también se desempeña bien en pruebas que requieren habilidades verbales. Los investigadores explican esto mediante el uso de análisis factorial para aislar un factor a menudo llamado inteligencia cristalizada o inteligencia verbal, que representa el grado en el cual alguien es capaz de resolver problemas usando habilidades verbales.

Análisis factorial en psicología se asocia frecuentemente con la investigación sobre la inteligencia. Sin embargo, también se ha utilizado en un amplio rango de dominios, tales como personalidad, actitudes, creencias, etc. Está asociado a la psicometría, debido a que puede evaluar la validez de un instrumento estableciendo si el instrumento de verdad mide los factores postulados.
Teoría de la información

Es la teoría relacionada con las leyes matemáticas que rige la transmisión y el procesamiento de la información. Más concretamente, la teoría de la información se ocupa de la medición de la información y de la representación de la misma (como, por ejemplo, su codificación) y de la capacidad de los sistemas de comunicación para transmitir y procesar información.
La codificación puede referirse tanto a la transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad.
La teoría de la información fue desarrollada inicialmente, en 1948, por el ingeniero electrónico estadounidense Claude E. Shannon, en su artículo, A Mathematical Theory of Communication (Teoría matemática de la comunicación). La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de la masificación de las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de comunicación por radio. La teoría de la información también abarca todas las restantes formas de transmisión y almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en las computadoras y en la grabación óptica de datos e imágenes. El término información se refiere a los mensajes transmitidos: voz o música transmitida por teléfono o radio, imágenes transmitidas por sistemas de televisión, información digital en sistemas y redes de computadoras, e incluso a los impulsos nerviosos en organismos vivientes. De forma más general, la teoría de la información ha sido aplicada en campos tan diversos como la cibernética, la criptografía, la lingüística, la psicología y la estadística.
 El tipo de sistema de comunicación más estudiado consta de varios componentes. El primero es una fuente de información (por ejemplo, una persona hablando) que produce un mensaje o información que será transmitida. El segundo es un transmisor (como, por ejemplo, un teléfono y un amplificador, o un micrófono y un transmisor de radio) que convierte el mensaje en señales electrónicas o electromagnéticas. Estas señales son transmitidas a través de un canal o medio, que es el tercer componente, como puede ser un cable o la atmósfera. Este canal es especialmente susceptible a interferencias procedentes de otras fuentes, que distorsionan y degradan la señal. (Algunos ejemplos de interferencias, conocidas como ruido, incluyen la estática en la recepción de radios y teléfonos, y la nieve en la recepción de imágenes televisivas). El cuarto componente es el receptor, como por ejemplo el de radio, que transforma de nuevo la señal recibida en el mensaje original. El último componente es el destinatario, como por ejemplo una persona escuchando el mensaje.

Teoría de los juegos

La teoría de juegos es una rama de la economía que estudia las decisiones en las que para que un individuo tenga éxito tiene que tener en cuenta las decisiones tomadas por el resto de los agentes que intervienen en la situación. La teoría de juegos como estudio matemático no se ha utilizado exclusivamente en la economía, sino en la gestión, estrategia, psicología o incluso en biología.
En teoría de juegos no tenemos que preguntarnos qué vamos a hacer, tenemos que preguntarnos qué vamos a hacer teniendo en cuenta lo que pensamos que harán los demás, ellos actuarán pensando según crean que van a ser nuestras actuaciones. La teoría de juegos ha sido utilizada en muchas decisiones empresariales, económicas, políticas o incluso para ganar jugando al póker. La teoría de juegos es nuestro Concepto de esta semana
Para representar gráficamente en teoría de juegos se suelen utilizar matrices (también conocidas como forma normal) y árboles de decisión como herramientas para comprender mejor los razonamientos que llevan a un punto u otro. Además los juegos se pueden resolver usando las matemáticas, aunque suelen ser bastante sofisticadas como para entrar en profundidad.
Historia
Aunque hubo trabajos anteriores la teoría de juegos empieza con un estudio de Antoine Augustin Cournot sobre un duopolio en el que se llega a una versión educida del equilibrio de Nash ya que se alcanza poco a poco el nivel de precios y producción adecuado. Más tarde se podría decir que el fundador de la teoría de juegos formalmente hablando fue el matemático John von Neuman, el mismo del proyecto Manhattan.

Desde entonces algunos economistas han sido galardonados con el Nobel de Economía por sus trabajos sobre el tema. Destaca Nash, conocido por la película “Una mente maravillosa” y porque es en el equilibrio de Nash dónde se basan muchas conclusiones que se han tomado sobre teoría de juegos aplicada a la vida real.

martes, 7 de junio de 2016

Introducción a las Redes de Computadores

REDES DE COMPUTADORAS

Las redes están formadas por conexiones entre grupos de computadoras y dispositivos asociados que permiten a los usuarios la transferencia electrónica de información. Puede a su vez dividirse en diversas categorías, según su alcance (red de área local o LAN, red de área metropolitana o MAN, red de área amplia o WAN, etc.), su método de conexión (por cable coaxial, fibra óptica, radio, microondas, infrarrojos) o su relación funcional (cliente-servidor, persona a persona), entre otras.


La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un ejemplo es Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del planeta interconectadas básicamente para compartir información y recursos.




Elementos básicos de las redes










  • Software
Sistema operativo de red: Permite la interconexión de ordenadores para acceder a los servicios y recursos.
Software de aplicación: En última instancia, todos los elementos se utilizan para que el usuario de cada estación, pueda utilizar sus programas y archivos específicos.
  • Hardware
Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes inalámbricas), es necesaria la intervención de una tarjeta de red (NIC, Network Card Interface), con la cual se puedan enviar y recibir paquetes de datos desde y hacia otras computadoras, empleando un protocolo para su comunicación y convirtiendo a esos datos a un formato que pueda ser transmitido por el medio (bits, ceros y unos). 

  • Nodos
Cada una de las máquinas es un nodo, y si la red es Internet, cada servidor constituye también un nodo
Medio Alámbrico: Se comunica a través de cables de datos (generalmente basada en Ethernet. Los cables de datos, conocidos como cables de red de Ethernet o cables con hilos conductores (CAT5),
conectan computadoras y otros dispositivos que forman las redes. Las redes alámbricas son mejores cuando usted necesita mover grandes cantidades de datos a altas velocidades, como medios multimedia de calidad profesional.


  • El cable de par trenzado 
Consiste en un conjunto de pares de hilos de cobre, conductores cruzados entre sí, con el objetivo de reducir el ruido de diafonía. A mayor número de cruces por unidad de longitud, mejor comportamiento ante el problema de diafonía.

  • Cable coaxial
El cable coaxial Conductor central rodeado por una capa conductora cilíndrica. Se emplea en sistemas troncales o de largo alcance que portan señales múltiplex con gran número de canales.

  • Fibra óptica
La fibra óptica es un enlace hecho con un hilo muy fino de material transparente de pequeño diámetro y recubierto de un material opaco que evita que la luz se disipe. Por el núcleo, generalmente de vidrio o plásticos, se envían pulsos de luz, no eléctricos. Hay dos tipos de fibra óptica: la multimodo y la monomodo.

  • Switch
Es un dispositivo de propósito especial diseñado para resolver problemas de rendimiento en la red, debido a anchos de banda pequeños y embotellamientos. El switch puede agregar mayor ancho de banda, acelerar la salida de paquetes, reducir tiempo de espera y bajar el costo por puerto.
Opera en la capa 2 del modelo OSI y reenvía los paquetes en base a la dirección MAC.
 
  • Modem
Sirve para comunicar dos ordenadores entre si, realiza la función de intercambiar datos digitales. El problema de las líneas de teléfono convencionales es que son sistemas que están hechos para trasmitir ondas no impulsos de información o de informática. El modem convierte la información digital en una especie de onda transportable a través del cable de la línea telefónica. Se trasporta usando un determinado código o lenguaje de trasmisión para que el mensaje solo lo pueda recibir aquel ordenador u usuario al que va destinado.
  • El router
se encarga de establecer qué ruta se destinará a cada paquete de datos dentro de una red informática. Puede ser beneficioso en la interconexión de computadoras, en la conexión de los equipos a Internet o para el desarrollo interno de quienes proveen servicios de Internet.

  • Un rack 
Es un soporte metálico destinado a alojar equipamiento electrónico, informático y de comunicaciones. Las medidas para la anchura están normalizadas para que sean compatibles con equipamiento de distintos fabricantes. También son llamados bastidores, cabinas, gabinetes o armarios.
Externamente, los racks para montaje de servidores tienen una anchura estándar de 600 milímetros (mm) y un fondo de 600, 800, 900, 1000 y ahora incluso 1200 mm. La anchura de 600 mm para racks de servidores coincide con el tamaño estándar de las losetas en los centros de datos.
  • Un repetidor 
es un dispositivo sencillo utilizado para regenerar una señal entre dos nodos de una red. De esta manera, se extiende el alcance de la red. El repetidor funciona solamente en el nivel físico (capa 1 del modelo OSI), es decir que sólo actúa sobre la información binaria que viaja en la línea de transmisión y que no puede interpretar los paquetes de información.




  • Puente de red 
Es el dispositivo de interconexión de redes de computadoras que 
opera en la capa 2 (nivel de enlace de datos) del modelo OSI.
Interconecta segmentos de red (o divide una red en segmentos) haciendo la transferencia de datos de una red hacia otra con base en la dirección física de destino de cada paquete.

En definitiva, un bridge conecta segmentos de red formando una sola subred (permite conexión entre equipos sin necesidad de routers). Funciona a través de una tabla de direcciones MAC detectadas en cada segmento al que está conectado.


TOPOLOGIAS


  • Topología de bus: 
La topología de bus es la manera más simple en la que se puede organizar una red. En la topología de bus, todos los equipos están conectados a la misma línea de transmisión mediante un cable, generalmente coaxial. La ventaja de esta topología es su facilidad de implementación y funcionamiento. Sin embargo, esta topología es altamente vulnerable, ya que si una de las conexiones es defectuosa, esto afecta a toda la red.



  • Topología de estrella: 
En la topología de estrella, los equipos de la red están conectados a un hardware denominado concentrador. Es una caja que contiene un cierto número de sockets a los cuales se pueden conectar los cables de los equipos.

  • Topología de anillo: 
En una red con topología en anillo, los equipos se comunican por turnos y se crea un bucle de equipos en el cual cada uno "tiene su turno para hablar" después del otro. que administra la comunicación entre los equipos conectados a él, lo que le da tiempo a cada uno para "hablar".


  • Topología de árbol: 
La topología de árbol combina características de la topología de estrella con la BUS. Consiste en un conjunto de subredes estrella conectadas a un BUS. Esta topología facilita el crecimiento de la red.

  • Topología de malla
La topología en malla es una topología en el cada nodo o computadora está conectado a las demás computadoras. De esta forma es más fácil llevar los mensajes de una computadora a otra computadora por diferentes caminos. Si la red malla está correctamente conectada de forma completa, no puede existir de ninguna manera algún tipo de interrupción en la comunicación. Además cada servidor tiene sus propias conexiones con todos los demás servidores que se encuentran en la red.

Tipos de redes
  • RED DE ÁREA PERSONAL (PAN)
Hablamos de una red informática de pocos metros, algo parecido a la distancia que necesita el Bluetooth del móvil para intercambiar datos. Son las más básicas y sirven para espacios reducidos, por ejemplo si trabajas en un local de una sola planta con un par de ordenadores.




Las redes PAN pueden serte útiles si vas a conectar pocos dispositivos que no estén muy lejos entre sí. La opción más habitual, sin embargo, para aumentar el radio de cobertura y para evitar la instalación de cablea estructurado, suele ser la compra de un router y la instalación de una red de área local inalámbrica.

  • RED DE ÁREA LOCAL (LAN).
Es la que todos conocemos y la que suele instalarse en la mayoría de las empresas, tanto si se trata de un edificio completo como de un local. Permite conectar ordenadores, impresoras, escáneres, fotocopiadoras y otros muchos periféricos entre sí para que puedas intercambiar datos y órdenes desde los diferentes nodos de la oficina.
Las redes LAN pueden abarcar desde los 200 metros hasta 1 kilómetro de cobertura.
  • RED DE ÁREA DE CAMPUS (CAN).
Una CAN es una colección de LANs dispersadas geográficamente dentro de un campus (universitario, oficinas de gobierno, maquilas o industrias) pertenecientes a una misma entidad en una área delimitada en kilometros.
Una CAN utiliza comúnmente tecnologías tales como FDDI y Gigabit Ethernet para conectividad a través de medios de comunicación tales como fibra óptica y espectro disperso.
  • RED DE ÁREA METROPOLITANA (MAN)

Mucho más amplias que las anteriores, abarcan espacios metropolitanos mucho más grandes. Son las que suelen utilizarse cuando las administraciones públicas deciden crear zonas Wifi en grandes espacios.

También es toda la infraestructura de cables de un operador de telecomunicaciones para el despliegue de redes de fibra óptica. Una red MAN suele conectar las diversas LAN que hay en un espacio de unos 50 kilómetros.
  • RED DE ÁREA AMPLIA (WAN)
Son las que suelen desplegar las empresas proveedoras de Internet para cubrir las necesidades de conexión de redes de una zona muy amplia, como una ciudad o país.

  • RED DE ÁREA DE ALMACENAMIENTO (SAN)
Es una red propia para las empresas que trabajan con servidores y no quieren perder rendimiento en el tráfico de usuario, ya que manejan una enorme cantidad de datos. Suelen utilizarlo mucho las empresas tecnológicas. En Cisco te cuentan las ventajas de una red SAN.

  • RED DE ÁREA LOCAL VIRTUAL (VLAN)
Las redes de las que hablamos normalmente se conectan de forma física. Las redes VLAN se encadenan de forma lógica (mediante protocolos, puertos, etc.), reduciendo el tráfico de red y mejorando la seguridad. Si una empresa tiene varios departamentos y quieres que funcionen con una red separada, la red VLAN.




Origen de Internet

En la historia se ha documentado y dicho que el origen de Internet se da gracias a ARPANET (Advanced Research Projects Agency Network) red de computadoras del ministerio de defensa de EEUU que propicio el surgimiento de Internet en un proyecto militar estadounidense el cual buscaba crear una red de computadoras que uniera los centros de investigación de defensa en caso de ataques, que pudieran mantener el contacto de manera remota y que siguieran funcionando a pesar de que alguno de sus nodos fuera destruido. Sin embargo su objetivo era el de investigar mejores maneras de usar los computadores, yendo más allá de su uso inicial como grandes máquinas calculadoras, y luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos dando un soporte social.
La idea de una red interconectada de computadores surgió en centros de investigación académicos y del gobierno dispersos a lo largo del territorio este país en Massachussets Institute of Technology cerca de Boston, Stanford Research Inst. U. de California los Angeles (UCLA), EL Rand corp. e Inst. For defense Análisis y se puso en marcha en las manos de Bob Taylor, Licklider (con su concepto de Galactic Network), Ivan Sutherland, Lawrence G. Roberts.
En 1969 empezó el primer tráfico de paquetes de información entre el MIT y la UCLA, los primeros años de los 80's los usuarios eran científicos y curiosos, en los 90's desaparece ARPANET y propicia el paso a las redes interconectadas el Internet el cual dispone actualmente de servicios que proporciona la red como el correo electrónico, acceso remoto a maquinas, transferencia de archivos mediante FTP. La Web (World Wide Web), conversaciones en línea como chats, grupos de noticias, etc.
La Web ha ayudado a la expansión de Internet se desarrolló en European Laboratory for Particle Physics (CERN) de Suiza en 1989. Utiliza el protocolo http (HyperText Transfer Protocol) con paginas creadas en HTML, con avances en paginas dinámicas programadas PHP, Java, JavaScript, ASP, etc., aumentando las posibilidades.


Internet es una oportunidad de difusión mundial de la información y un medio de colaboración e interacción entre los individuos y sus computadores independientemente de su localización geográfica, además se ha comparado con bibliotecas, enciclopedias tradicionales permitiendo además, creación de buscadores muy frecuentados como Google, Amazon, eBay, Yahoo y muchos otros.


  • Servicios de Internet

Internet cuenta, entre otros, con los siguientes servicios:
World Wide Web:
Permite consultar información almacenada en cualquier computadora de la red. Es el servicio más flexible, porque además de consultar información permite también enviar datos.
FTP: Permite el intercambio de archivos de una computadora a otra.
Correo electrónico (e-mail): similar al correo tradicional, pero mucho más rápido y con un costo independiente de la distancia a la que se envíen los mensajes.
Listas de correo: están íntimamente relacionadas con el correo electrónico. Son listas de direcciones electrónicas de personas con intereses comunes.
Chat: gracias a este servicio se puede charlar con otros usuarios mediante el teclado de la computadora y en tiempo real.
Videoconferencias: para hablar con otra persona de viva voz y viendo además su imagen, a un costo mucho más barato que una llamada telefónica internacional.
Telnet: acceso remoto a un servidor de la red, no es frecuente que el usuario medio lo necesite.
Por otro lado, otros servicios no están estandarizados, como la videoconferencia, además de requerir un equipamiento especial del que no todo el mundo dispone.
  • Evolución de la web desde 1.0 a la web 5.0




WEB 1.O Limitada, usada fundamentalmente para publicar documentos y realizar transacciones. Con ella, las grandes empresas inauguraron su estrategia online. Crearon un sitio donde publicar información corporativa, y desarrollaron planes de marketing y ventas que incorporaban la Web como nexo con los clientes.
WEB 2.0 Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web donde los usuarios se limitan a la observación pasiva de los contenidos que se ha creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías.
WEB 3.0 • Se basa en la idea de añadir metadatos semánticos y ontológicos a la World Wide Web. Esas informaciones adicionales —que describen el contenido, el significado y la relación de los datos— se deben proporcionar de manera formal, para que así sea posible evaluarlas automáticamente por máquinas de procesamiento. El objetivo es mejorar Internet ampliando la interoperabilidad entre los sistemas informáticos usando "agentes inteligentes". Agentes inteligentes son programas en las computadoras que buscan información sin operadores humanos. • Con la web 3.0 se busca que los usuarios puedan conectarse desde cualquier lugar, cualquier dispositivo y a cualquier momento.
WEB 4.0 • La Web 4.0 propone un nuevo modelo de interacción con el usuario más completo y personalizado, no limitándose simplemente a mostrar información, sino comportándose como un espejo mágico que de soluciones concretas a las necesidades el usuario.
WEB 5.0 La red sensorial-emotiva. Aunque un blog provoque un debate furioso o un video en YouTube genere una reacción en cadena, la Web es “emocionalmente" neutra: no percibe qué siente el usuario. El sitio wefeelfine.org rastrea frases emotivas en la Web, las categoriza, y registra la frecuencia y ubicación de "clusters" de sentimientos. La empresa Emotiv Systems ha creado, neutro tecnología mediante, auriculares que permiten al usuario interactuar con el contenido que responda a sus emociones o cambiar en tiempo real la expresión facial de un "avatar”. Si se pueden "personalizar" las interacciones para crear experiencias que emocionen a los usuarios, la Web 5.0será, sin duda, más afable que sus antecesoras.


Tipos de virus
  • Worm o gusano informático: es un malware que reside en la memoria de la computadora y se caracteriza por duplicarse en ella, sin la asistencia de un usuario. Consumen banda ancha o memoria del sistema en gran medida.
  • Caballo de Troya: este virus se esconde en un programa legítimo que, al ejecutarlo, comienza a dañar la computadora. Afecta a la seguridad de la PC, dejándola indefensa y también capta datos que envía a otros sitios, como por ejemplo contraseñas.
  • Bombas lógicas o de tiempo: se activan tras un hecho puntual, como por ejemplo con la combinación de ciertas teclas o bien en una fecha específica. Si este hecho no se da, el virus permanecerá oculto.
  • Hoax: carecen de la posibilidad de reproducirse por sí mismos y no son verdaderos virus. Son mensajes cuyo contenido no es cierto y que incentivan a los usuarios a que los reenvíen a sus contactos. El objetivo de estos falsos virus es que se sobrecargue el flujo de información mediante el e-mail y las redes. Aquellos e-mails que hablan sobre la existencia de nuevos virus o la desaparición de alguna persona suelen pertenecer a este tipo de mensajes.
  • De enlace: estos virus cambian las direcciones con las que se accede a los archivos de la computadora por aquella en la que residen. Lo que ocasionan es la imposibilidad de ubicar los archivos almacenados.
  • De sobreescritura: este clase de virus genera la pérdida del contenido de los archivos a los que ataca. Esto lo logra sobreescribiendo su interior.
Antivirus destacados






Hacker

Un hacker es aquella persona experta en alguna rama de la tecnología, a menudo informática, que se dedica a intervenir y/o realizar alteraciones técnicas con buenas o malas intenciones sobre un producto o dispositivo.
La palabra hacker es tanto un neologismo como un anglicismo. Proviene del inglés y tiene que ver con el verbo "hack" que significa "recortar", "alterar". A menudo los hackers se reconocen como tales y llaman a sus obras "hackeo" o "hackear".

Existen dos tipos de hackers principales: los Black Hat y los White Hat. Su nombre proviene de las películas de vaqueros dónde, normalmente, a "los malos" se le representa con sombreros negros mientras que "los buenos" van con sombrero blanco.
Los White Hats, hackers de sombrero blanco, o hacker éticos se encargan de encontrar vulnerabilidades en un sistema para estudiar y corregir los fallos encontrados. Se dice que algunos de los que se encuentran hoy en día en este grupo pertenecieron en su momento a los Black Hat, y ahora utilizan todos sus conocimientos para mejorar los sistemas en materia de seguridad.

Por su parte, los Black Hat o ciberdeluente, son aquellos hackers de sombrero negro que realizan actividades ilícitas para vulnerar y extraer información confidencial, principalmente con un fin monetario. También son creadores de todo tipo de malware.


Cracker
es el término que define a programadores maliciosos y ciberpiratas que actúan con el objetivo de violar ilegal o inmoralmente sistemas cibernéticos, siendo un término creado en 1985 por hackers en defensa del uso periodístico del término

  • Tipos de crackers
Crackers de sistemas: término designado a programadores y decoders que alteran el contenido de un determinado programa, por ejemplo, alterando fechas de expiración de un determinado programa para hacerlo funcionar como si se tratara de una copia legítima.
Crackers de Criptografía: término usado para aquellos que se dedican a la ruptura de criptografía (cracking codes).
Phreaker: cracker especializado en telefonía. Tiene conocimiento para hacer llamadas gratuitas, reprogramar centrales telefónicas, grabar conversaciones de otros teléfonos para luego poder escuchar la conversación en su propio teléfono, etc.
Cyberpunk: son los vándalos de páginas web o sistemas informatizados. Destruyen el trabajo ajeno.

miércoles, 4 de mayo de 2016

Hardware del PC



Desde la invención el Ábaco para hacer cálculos, el hombre siempre ha querido avanzar en el desarrollo de mecanismos implementados en máquinas que le ayuden a resolver problemas cotidianos durante la vida. El computador es un invento que ha sufrido grandes cambio e innovaciones a lo largo de la historia tanto en su software como en su hardware, pero en este ultimo los cambios visibles fueron exageradamente drásticos con el pasar de los años, pasando de ser un marco computador que era igual de grande que una casa a ser portable en un morral estudiantil o en un maleta ejecutiva.

Es por eso que a continuación se hará Referencia los principales elementos del PC a nivel de hardware analizados a través de los siguientes prezis.

DISPOSITIVOS DE ENTRADA
Los dispositivos de entrada son aquellos equipos y componentes que permiten ingresar información a la unidad de procesamiento; algunos ejemplos conocidos por todos son el teclado, el mouse (también llamado ratón), el escáner, la cámara web (webcam), el lápiz óptico y el micrófono; la forma en la que el usuario interactúa con ellos es muy variada y tiene, en cada caso, un propósito diferente, que puede ser la digitalización de un texto o de una imagen, la captura de una secuencia de vídeo o la grabación de una canción, entre tantas otras posibilidades.

Otros dispositivos de entrada son:
LOS MICRÓFONOS

Un micrófono es un transductor que convierte la energía acústica en energía eléctrica.

LÁPIZ ÓPTICOS
Es un periférico de entrada para computadoras, en forma de una varita fotosensible, que puede ser usado para apuntar a objetos mostrados en un televisor de CRT o un monitor, en una manera similar a una pantalla táctil pero con mayor exactitud posicional.


Para ver mas, acceda a la presentación en prezi.



DISPOSITIVOS DE SALIDA
Los dispositivos de salida son aquellos periféricos que se adosan a un ordenador y que tienen como finalidad comunicar información al usuario. Se distinguen de los dispositivos de entrada, que son aquellos mediante los cuales el usuario incorpora información al ordenador. 
El monitor
El monitor es un dispositivo de salida para el ordenador que muestra en su pantalla los resultados de las operaciones realizadas en él.
Monitores CRT

Un monitor CRT, o de tubo de rayos catódicos, utiliza electrones para transferir imágenes de una fuente de programa.
Los datos son enviados desde la computadora por medio del puerto de vídeo hacia los circuitos del monitor.
Monitores LCD
Una pantalla de LCD (acrónimo de “cristal líquido” en inglés) es aquella pantalla delgada, formada por un determinado número de píxeles que se colocan delante de una fuente de luz. Eran muy usadas en notebooks por su bajo consumo energético, bajo peso y menor tamaño.
Proyectores vídeo beam: 
El vídeo proyector o video beam son equipos basados en la tecnología de cristal LCD o DLP. Reciben señal para ser ampliada, mediante cualquier formato de señal de computador o de vídeo y se puede conectar bajo cualquier sistema operativo de última tecnología.
Para ver mas, acceda a la presentación en prezi.



DISPOSITIVOS DE ENTRADA / SALIDA
Los dispositivos de entrada y salida son el conjunto de aparatos tecnológicos que usan las distintas unidades de un sistema de procesamiento de información como una computadora para comunicarse unas con otras.
Un dispositivo de entrada o salida puede ser cualquier tipo de unidad funcional o subsistema que forma parte del conjunto integral del sistema del ordenador. En todos los casos, pueden enviar señales o procesar información para establecer distintos tipos de comunicación interna y externa. El término entrada y salida o input / output (del inglés) también refiere a la ejecución de acciones u operaciones a través de dichos dispositivos. La mayoría de estos dispositivos permiten tanto la entrada como la salida de datos.


Típicamente, las unidades de input y output en un ordenador pueden ser el teclado, ratón o mouse, joystick, micrófono, webcam, escáner, monitor, altavoz o parlantes, auriculares, impresora, proyector, unidades de almacenamiento, CD o DVD, módem, tarjeta de red, USB y fax, entre otros.




-La Impresora & El Plotter
La Impresora:
Es un dispositivo periférico del computador que permite producir una gama permanente de textos o gráficos.
El Plotter:

Es un trazador gráfico que tiene la capacidad de generar grandes impresiones linea por linea.




DISPOSITIVOS DE ALMACENAMIENTO
También llamado almacenamiento secundario, estos dispositivos pueden guardar información en su interior, como en el caso de los discos rígidos, tarjetas de memoria y pendrives, o como en el caso de las unidades de almacenamiento óptico como las lectograbadoras de Blu-Ray, DVD o CD, grabándolas en un soporte en forma de disco.
Este tipo de dispositivos es la más segura y práctica forma de almacenar muchísima cantidad de información en forma sencilla y permanente, además, los datos que guardemos en ellos siempre estarán disponibles gracias a que no es necesario suministrarles energía eléctrica para que permanezcan almacenados.



-DISCO DURO
El disco duro es medio de almacenamiento de información no removible y de muy alta capacidad, trabaja mediante principios magnéticos.
El IBM 350, en su cubículo original y como pieza de museo
Los discos pasaron a ser extraíbles. Eran muy delicados, de allí la necesidad de una protección adicional.
Fue enunciada el 13 de Marzo de 1973, que incorporo una tecnología y un termino que incluso hoy se sigue usando entre los técnicos informáticos: “ wínchester”.

La tecnología de “wínchester”, permitió un cabezal de lectura que permaneciera sobre la superficie del disco, lo cual redujo de forma drástica tanto la complejidad de sistema de lectura/escritura como su costo de fabricación.



ESTRUCTURA FÍSICA
Disco duro compuesto por varios discos metálicos (hasta 4 platos) que giran simultáneamente y guardan Información en ambas caras.
Cada plato se organiza en circunferencias concéntricas llamadas pistas.
Cada pista se organiza en sectores. Cada sector tiene 512 bytes.
Para leer y escribir los datos se utilizan los cabezales. Hay hasta 8, dos por plato. Se montan en forma de peine.
Todos los cabezales se mueven a la vez.





-Discos Ópticos
Los discos ópticos presentan una capa interna protegida, donde se guardan los bits mediante distintas tecnologías, siendo que en todas ellas dichos bits se leen merced a un rayo láser incidente. 
Un disco óptico es un medio de almacenamiento de datos que consiste en un disco circular en el cual la información se codifica, guarda y almacena.
SD: es un formato de tarjeta de memoria para dispositivos portátiles, por ejemplo: cámaras digitales, teléfonos móviles e.t.c.
CARACTERISTICAS
Almacenamiento secuencial, Economía, Diseño, No hay posibilidad de borrado accidental
MEMORIAS
la memoria es el dispositivo que retiene, memoriza o almacena datos informáticos durante algún intervalo de tiempo
TIPOS DE DVD
CD
CD ROM:
CD-R
CD-RW
MINI CD-RW
DVD
Es un tipo de disco óptico que se utiliza para almacenar musica, películas o datos.
DVD+R
DVD + RW
DVD-R
DVD-RAM
DVD + R DL y DVD-R DL
HVD
BLU- REY
la unidad de disco óptico es la unidad de disco que utiliza una luz láser u ondas electromagnéticas cercanas al espectro de la luz como parte del proceso de lectura.





DISPOSITIVOS DE PROCESAMIENTO
Son todos los dispositivos en donde se procesan los datos introducidos por el usuario y a partir de los pasos determinados por un programa especifico se obtiene un resultado determinadoEstos dispositivos realizan el trabajo pesado del computador, procesan los datos introducidos por el usuario.




- Tarjeta Madre
La BOARD o TARJETA MADRE es la parte más importante porque es la que contiene todo lo que se necesita para el funcionamiento del computador. Tiene instalados una serie de circuitos integrados como el CHIPSET que es la que conecta el microprocesador con la memoria RAM, las RANURAS DE EXPANSIÓN y otros dispositivos. Existen varios tipos de board AT (tecnología antigua) y ATX (tecnología nueva).

Todas las tarjetas madres llevan una serie de elementos comunes que dependen del procesador para el que han sido diseñadas, los cuales son: el chipset, es el conjunto de chips cuya misión es comunicar el procesador con los otros componentes de la tarjeta; el zócalo, lugar donde va insertado el procesador; el zócalo de memoria o ranuras de memoria para los módulos de la memoria principal RAM.

contador de visitas web