Altillo.com
> Exámenes >
UNPAZ
> Internet, Infraestructura y Redes
El origen de Internet se remonta a 1969, cuando la Agencia de Proyectos para la Investigación Avanzada de Estados Unidos, ARPA, conectó cuatro sistemas distantes en una red que se denominó ARPANET, cuya misión era mantener las comunicaciones en caso de guerra.
Esta agencia, dependiente del Departamento de Defensa, nació en 1958 con el objetivo de desarrollar proyectos de tecnología militar en plena Guerra Fría. EE.UU. quería contrarrestar los avances de la antigua URSS.
Con ARPANET llegaba una revolución en el campo de las comunicaciones. Era una red que permitía la entrada y salida de conexiones sin que el sistema se viera afectada y que cualquier usuario pudiera comunicarse con otro desde cualquier parte de la red.
Hasta ese momento, Estados Unidos contaba con una red centralizada, que se consideraba muy insegura en caso de guerra, ya que un solo fallo podría bloquear el sistema.
El salto cualitativo se produjo cuando ARPANET se extendió por el mundo académico. Los científicos la utilizaron y la desarrollaron para compartir opiniones y colaborar en sus trabajos.
La red conectó todas las agencias y los proyectos de defensa de Estados Unidos y en 1972 ya integraba a 50 universidades y centros de investigación diseminados por todo el país.
El número de ordenadores conectados creció y a partir de los 80’ aparecieron otras redes, lo que provocó el caos por la variedad de formatos de ordenadores conectados.
Con la unificación de esas redes nace internet, aunque para ello hubo que desarrollar protocolos de comunicación que permitieron una comunicación más transparente entre ordenadores a través de las redes.
Este protocolo es un conjunto de reglas para la comunicación a través de internet ya sea envió de correo electrónico, la trasmisión de video o la conexión a un sitio web.
El protocolo internet implementa dos funciones básicas: direccionamiento y fragmentación. Los módulos internet usan las direcciones que se encuentran en la cabecera internet para transmitir los datagramas internet hacia sus destinos. La selección de un camino para la transmisión se llama encaminamiento.
Los módulos internet usan campos en la cabecera internet para fragmentar y reensamblar los datagramas internet cuando sea necesario para su transmisión a través de redes de "trama pequeña".
El retardo acumulado de un extremo a otro se llama latencia. A la latencia contribuyen: el origen, la red y el destino.
Cuando hablamos del tiempo de transmisión sabemos que existen variables que pueden afectar al mismo, por ejemplo:
Retardo de propagación, que es el tiempo que tarda la información en viajar desde un extremo a otro sobre el medio de transmisión utilizado. Retardo de transmisión, que es el tiempo en que el origen tarda en volcar el paquete en el medio de transmisión. Este se determina por la velocidad de transmisión y el tamaño del paquete. Retardo de “Store-and-forward” (almacenamiento y reenvío), es el tiempo que se pierde debido a que los routers intermedios roetes deben recibir el paquete completamente antes de transmitirlo. Depende del numero de nodos que atraviesa el paquete.
Retardo de proceso, debido a que los routers deben analizar la cabecera y decidir la ruta que debe seguir.
En el tiempo de transmisión de una comunicación a través de una conexión estándar individual podemos decir que se puede garantizar el tiempo de transmisión. Dado que, es una conexión rectilínea de extremo a extremo. Es decir, que no tiene las variables que mencionamos que si tiene una comunicación en internet. Además, al contratar T1 o T3 ya que son las líneas que ofrecen una entrega garantizada de 1,54 Mbps si hablamos de T1 y de 45 Mbps si hablamos de T3.
T1 y T3 son estándares telefónicos internacionales para la comunicación digital Estas líneas son alquiladas, dedicadas y garantizadas ideales para corporaciones, agencias
gubernamentales y empresas que requieren niveles de servicios garantizados de alta velocidad.
La “Ley de los grandes números” habla sobre la probabilidad teórica y la probabilidad experimental esta expone que en un experimento “X” la repetición de las cosas genera que la probabilidad experimental se asemeje a la probabilidad teórica, del mismo modo en lo que sería la conmutación de datos tenemos una velocidad estimada de transmisión esto estaría representando “La probabilidad teórica” en esta transmisión los datos pueden sufrir variación en cuanto a su tiempo de latencia, tiempo de proceso entre otros. Esta representa a la “probabilidad experimental” es decir que en cuanto más datos se envíen por la red la probabilidad experimental es decir la velocidad de datos que se transmiten tiende a igualarse como la estimación teórica. En otras palabras, con la eficacia de la transmisión de información por “conmutación de paquetes”, y el tamaño de la red en la que opera es que la Ley dice que podemos predecir el rendimiento de una red cuando es grande ya que se comporta colectivamente de una manera predecible. Con la conmutación de paquetes, la capacidad de comunicación en una red puede multiplicarse por 100 o más.
Los avances tecnológicos en las áreas de los microordenadores y la interacción en red, generaron un nuevo modelo de informática. Este nuevo modelo de informática de entender la organización de una compañía es lo que se ha denominado “ informática Cliente/Servidor”
Esta arquitectura Cliente/Servidor, surge en la década de los 60’. En la época era necesaria la misma porque las computadoras ocupaban mucho espacio físico y además eran muy caras.
En ese entonces, no existían los conceptos que conocemos hoy como PC personal o portátil (que surgiría en la década los 80’)
y estas máquinas obedecían a la usabilidad compartida. Por esta razón, se buscaban las formas de perfeccionar su rendimiento. Por ejemplo, tolerar la realización de trabajos en determinados momentos aprovechando las noches, fin de semana o en general los momentos en los que eran pocos los usuarios que estuviesen trabajando en tiempo real con el dispositivo.
Este modelo de arquitectura, está compuesto por seis características básicas. La red, clientes, servidor, protocolo, servicios y base de datos. La red, es un conjunto de clientes, servidores y bases de datos unidos por una forma física o no física en la cual existen protocolos de transmisión de información establecida. Los clientes, podemos llamarlo como una demanda o un demandante de servicios, puede ser un ordenador o una aplicación la cual requiera información proveniente de la red para poder funcionar. El servidor es un proveedor de servicio, que puede ser un ordenador u aplicación que envía información a los demás usuarios de la red. Un protocolo, es un conjunto de normas o reglas establecidas de manera clara y concreta sobre el flujo de la información en una red estructurada. Los servicios, son un conjunto de información que buscan responder la necesidad de los clientes, esta información puede ser, un email, música, un mensaje simple entre diferentes softwares, videos, etc. Las bases de datos son bancos de información ordenadas, categorizadas y clasificas, espacios de almacenaje para la utilización de los servicios y también directamente de los clientes que forman parte de la red,
La arquitectura de los protocolos TCP/IP está basada en un modelo conceptual de lo que conocemos como DARPA que es una división de cinco capas; aplicación, transporte, internet, enlace de datos y física.
Su relación es la transmisión de datos y en el proceso comparten un trabajo de proporcionar una ruta y una seguridad en que los datos llegaran a destino sin daños.
Cada capa obedece a un protocolo es decir existen reglas que determinan el comportamiento de cada capa frente a esos datos que se quieren transmitir de un origen a un destino determinado. La primera capa de aplicación, se encarga de proporcionar a las aplicaciones la capacidad de acceder a los servicios de las demás capas y define los protocolos que utilizaran las aplicaciones para intercambiar datos, en esta capa los datos son procesados de manera que, se formatean y codifican en lenguaje binario, también, pasara a la siguiente capa de manera encapsulada. En la siguiente capa que se denomina transporte, la cual es responsable de proporcionar a la capa de aplicación servicios de sesión y comunicación de datagramas. ¿esto que quiere decir? Que la capa de transporte tomara estos datos encapsulados y los transformara en segmentos, de ser necesario. Por ejemplo, si estos pasaran el limite de 1500 bytes. Así, podrán ser enviados por el medio de comunicación. Luego, tenemos la capa de internet, también conocida como capa de red o capa IP. esta acepta y transfiere paquetes para la red de la siguiente manera: los datos no sufren cambios, solamente tenemos la actuación del protocolo IP, el cual proporciona las direcciones IP de origen y destino, denominado direccionamiento lógico. La capa de enlace de datos es responsable de la transferencia fiable de información a través de un circuito de transmisión de datos, recibe peticiones de la capa de red y utiliza los servicios de la capa física la cual se encarga de las transformaciones que se le hacen a la secuencia de bits para transmitirlos de un lugar a otro.
Digamos que el protocolo TCP/IP fue diseñado para ser independiente del método de acceso a la red, el formato y el medio. De esta manera, TCP/IP se puede utilizar para conectar diferentes tipos de red.
Terminología de cada capa:
En la capa de aplicación le llamamos datos, en la de transporte segmentos, en red paquetes, en enlace de datos trama y en la física bits.
Hoy en día es muy común para nosotros comprar o vender a través de internet. Esto es una practica muy innovadora y antes no era común, nuestros hábitos de compra han cambiado y cada vez son más los usuarios que prefieren realizar sus compras vía online en lugar de desplazarse hasta un establecimiento físico.
Estas grandes innovaciones que surgieron en las últimas décadas, como el uso de las plataformas móviles, se han convertido simplemente en la mejor forma del comercio electrónico en la historia. Esto cambio la economía de millones de empresas en el mundo. Dado que, muchos más usuarios optan por realizar compras a través de internet por la sencillez que ofrecen las mismas. Las empresas, también, han optado por esta forma de venta por que tiene muchísimas ventajas y además es viable económicamente ya que ahorra los gastos de un lugar físico. Ofrece, la posibilidad de vender 24/7 los 365 días del año y el ilimitado acceso a potenciales clientes.
La computación en la nube permite enfocarse en generar innovación y valor. Reduce los costos que ocasiona un comercio físico tanto de inauguración como de mantenimiento posterior. A su vez, aumenta el movimiento económico del mundo. Tales así, que aumenta la productividad y la competitividad de las empresas.
El comercio online ha ido evolucionando a lo largo de los años, convirtiéndose en un canal con gran protagonismo e importancia para la realización de compras. Así, cada año se han ido superando las cifras de facturación y transacciones en este medio.
Es de suma importancia saber que cada dispositivo necesita tener una dirección IP única así poder conectarse a internet. En relación a eso, los dispositivos pueden tener una IP gracias al Internet Protocol. Hasta hace unos años la versión vigente del protocolo IP era la IPv4, pero por una cuestión que explicare más adelante esta versión está siendo sustituida por la nueva versión IPv6 debido que el requerimiento de IP en el mundo se incrementando de tal manera que esta IPv4 su oferta de 4.300 millones de IP no fueron suficientes con la aparición de “El internet de las cosas”.
En la actualidad son 2.000 millones de personas conectadas a internet y si estos 2.000 millones de personas conectaran varios dispositivos a internet, eso genera un quiebre en las IPv4, por esta razón, es que ahora internet funciona bajo la versión del Internet Protocol IPV6, la cual ofrece 4.294.967.296 direcciones IP.
Los diferentes modelos de computación en nube que se han desarrollado son tres:
Cloud Publica, este modelo implementa la computación en la nube para múltiples organizaciones y estas utilizan no solo un único conjunto de redes y maquinas, sino de almacenamientos, procesamientos y gestión de datos ajustados a las necesidades de cada empresa.
Cloud privada, es la nube que una empresa lleva a cabo con sus propios recursos (maquinas, redes, almacenamiento, centro de datos, etc.) y lo entrega al cliente para su uso. Sin embargo, existen proveedores de computación en la nube con modelo privado quienes tienen poca capacidad de almacenamiento y el acceso a las mismas es más caro ya que es un proveedor pequeño comparado con los que ofrecen la nube pública.
Cloud Hibrida, consiste en combinar las aplicaciones locales con las de la nube pública. Se puede ver también como aplicación privada que se ve aumentada con los servicios de Cloud Computing y la infraestructura. Esto permite a una empresa mantener el control de sus principales aplicaciones, al tiempo de aprovechar el Cloud Computing en los lugares donde tenga sentido.
Una de las principales diferencias entre el 4G y el 5G es la velocidad de transferencia de datos. Esto significa que se podrán descargar contenidos de forma casi inmediata. Dado que, se tendrá una mejora de la latencia. La tecnología 5G promete su velocidad de descarga de entre 1 y 2 milisegundos, comparado con la 4G que tiene una velocidad de descarga de entre 35 y 52 milisegundos.
La latencia es el retardo acumulado de un extremo a otro. Es decir, cuanto tarda la información dentro de la red, desde el origen del cual se envió hasta que llega al destino.
Otra diferencia entre estas es el soporte de conexión de más terminales a la vez y además de
1.000.000 de dispositivos por kilómetro comparado con 10.000 dispositivos que soporta la conexión 4G.
En el artículo de Mariano artículo lo que se expone sobre la red de arquitectura abierta es que, suponía, un principio lógico, explícito y sumamente subversivo: que no hubiera un centro de control operativo de la información circulante y que no se retuvieran, en los puntos de interconexión entre las distintas redes, informaciones sobre paquetes de información específicos
La interacción de estos ámbitos estatales, empresariales y académicos en el artículo surgimiento de ARPANET fue porque cada una de esta instituciones estaban convencidas de que el proyecto era viable en beneficios y que brindaría a largo plazo en términos de prestigio Por otro lado la
interacción de los ámbitos estatales, empresariales y académicos en el surgimiento de ARPANET se dio por que eran un grupo de personas que estaban convencidas de lo importante que era su proyecto y en los beneficios que les iban a brindar a largo plazo prestigio, más que de la parte económica inmediata
Hace referencia también a la hipótesis de que estos actores estaban imbuidos del conjunto de valores que Robert K. Merton había designado como el ethos científico, el cual se compone de cuatro dimensiones: El universalismo, el comunalismo, el desinterés y el escepticismo organizado.
Preguntas y Respuestas entre Usuarios: