trabajo internet
DESCRIPTION
trabajosTRANSCRIPT
INSTITUTO SUPERIOR TECNOLÓGICO IDAT
REDES Y COMUNICACIONES
“LA INTERNET”
SECCION : 10201
PROFESOR : CESAR PASACHE CARRANZA
AUTOR : AGUIRRE ASPILCUETA RUTH
CARAHUANCO VILCA SAMUEL
ESPINOZA PALACIOS RENATO
HUALLANCA GOMEZ ANDRES
ORJEDA PEREZ CHRISTIAN
QUISPE HUAMANI ANTONIO
SALAZAR PISFIL LUIS
Lima, 18 de diciembre del 2014
El presente trabajo se lo dedicamos a nuestros seres queridos que nos han apoyado en nuestra carrera profesional y que siguen creyendo en nosotros para darles alegrías y satisfacciones.
El Grupo
SUMARIO
En el presente trabajo de investigación titulado la Internet se ha dividido según
las investigaciones en siete capítulos: En el primero se habla de los inicios del
Internet, en el segundo capítulo mencionaremos información sobre el Arpanet,
el tercer capítulo nos informa sobre la Intranet, en el cuarto capítulo
informamos sobre el Internet, en el quinto capitulo conoceremos los
navegadores, buscadores y protocolos de internet, en el sexto capítulo se dará
a conocer sobre el Internet2 y finalmente en el último capítulo informaremos
sobre los hackers y virus del internet.
De acuerdo a lo investigado por el grupo hemos podido determinar que la etapa
más importante de la Internet es el capítulo dos el Arpanet ya que si no hubiera
existido no podríamos tener el Internet de hoy en día, y poder tener
conocimiento de la información en todo el mundo.
En conclusión este trabajo de investigación es importante porque hemos
podido incrementar nuestros conocimientos con respecto al Internet y sabemos
que esta información sirve de antecedente para quienes en un futuro deseen
actualizar este trabajo.
INDICE
CAPITULO I
Historia del Internet
1.1 Introducción
1.2 Historia
1.3 Cronología del Internet
1.4 Evolución del Internet en la historia
CAPITULO II
Arpanet
2.1 Introducción
2.2 Inicios
2.3 Creación
2.3.1 Crecimiento y evolución
2.4 Tecnología
2.4.1 Software
2.5 Las aplicaciones de red
2.6 Protección de contraseña
2.7 El final de ARPANET
CAPITULO III
La Intranet
3.1 Introducción
3.2 Intranet
3.3 E-mail dentro de una Intranet
3.4 Seguridad de la Intranet
3.4.1 Encriptación
3.5 Ventajas de implementar una Intranet
3.6 Importancia
3.7 Ejemplo de Intranet
3.8 Tipos de Intranet
CAPITULO IV
Internet
4.1 Internet
4.2 Servicios de Internet
4.2.1 World Wide Web
4.2.2 Correo Electronico
4.2.3 Chat, messenger
4.2.4 Telefonia
4.2.5 Video conferencia
4.3 Recursos
4.3.1 Banners, Cookies, enlaces
4.4 Agentes y Brokers
4.5 Firewall
CAPITULO V
Navegadores, buscadores, protocolos y proveedores de Internet
CAPITULO VI
Internet 2
6.1 Introducción
6.2 Historia
6.3 Objetivos
6.4 Características
6.5 Miembros del Interent2
CAPITULO VII
Hackers y virus del Internet
7.1 Hacker
7.1.1 La Comunidad Hacker
7.1.2 Ética de un Hacker
7.1.3 ¿Cómo piensa un Hacker?
7.1.4 Tipos de Ataques
7.2 Virus
7.2.1 Características
7.2.2 Tipos o Clasificación
CAPITULO I
Historia del Internet
1.1 INTRODUCCION
Se remonta al temprano desarrollo de las redes de comunicación. La
idea de una red de ordenadores diseñada para permitir la comunicación
general entre usuarios de varias computadoras sea tanto desarrollos
tecnológicos como la fusión de la infraestructura de la red ya existente y
los sistemas de telecomunicaciones. La primera descripción
documentada acerca de las interacciones sociales que podrían ser
propiciadas a través del networking (trabajo en red) está contenida en
una serie de memorandos escritos por J.C.R. Licklider, del
Massachusetts Institute of Technology, en agosto de 1962, en los cuales
Licklider discute sobre su concepto de Galactic Network (Red Galáctica).
Las más antiguas versiones de estas ideas aparecieron a finales de los
años cincuenta. Implementaciones prácticas de estos conceptos
empezaron a finales de los ochenta y a lo largo de los noventa. En la
década de 1980, tecnologías que reconoceríamos como las bases de la
moderna Internet, empezaron a expandirse por todo el mundo. En los
noventa se introdujo la World Wide Web (WWW), que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la
moderna red mundial de computadoras que hoy conocemos. Atravesó
los países occidentales e intentó una penetración en los países en
desarrollo, creando un acceso mundial a información y comunicación sin
precedentes, pero también una brecha digital en el acceso a esta nueva
infraestructura. Internet también alteró la economía del mundo entero,
incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se
basaba en el método de la computadora central o unidad principal, que
simplemente consistía en permitir a sus terminales conectarse a través
de largas líneas alquiladas. Este método se usaba en los años cincuenta
por el Proyecto RAND para apoyar a investigadores como Herbert
Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo
el continente con otros investigadores de Santa Mónica
(California) trabajando en demostración automática de
teoremas e inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R.
Licklider, comprendió la necesidad de una red mundial, según consta en
su documento de enero,1960, Man-Computer Symbiosis (Simbiosis
Hombre-Computadora).
"una red de muchos ordenadores, conectados mediante líneas de
comunicación de banda ancha" las cuales proporcionan "las funciones
que existen hoy en día de las bibliotecas junto con anticipados avances
en el guardado y adquisición de información y [otras] funciones
simbióticas" J.C.R Licklider2
En octubre de 1962, Licklider fue nombrado jefe de la oficina de
procesado de información DARPA, y empezó a formar un grupo informal
dentro del DARPA del Departamento de Defensa de los Estados
Unidos para investigaciones sobre ordenadores más avanzadas. Como
parte del papel de la oficina de procesado de información, se instalaron
tres terminales de redes: una para la System Development
Corporation en Santa Mónica, otra para el Proyecto Genie en
la Universidad de California (Berkeley)y otra para el proyecto Multics en
el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de
redes se haría evidente por los problemas que esto causó.
"Para cada una de estas tres terminales, tenía tres diferentes juegos de
comandos de usuario. Por tanto, si estaba hablando en red con alguien
en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el
M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y
registrarme en la otra terminal para contactar con él.
Dije, es obvio lo que hay que hacer: si tienes esas tres terminales,
debería haber una terminal que fuese a donde sea que quisieras ir y en
donde tengas interactividad. Esa idea es el ARPANet."
Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a
Communications Device" (El Ordenador como un Dispositivo de
Comunicación), en una entrevista con el New York Times 3
Como principal problema en lo que se refiere a las interconexiones está
el conectar diferentes redes físicas para formar una sola red lógica.
Durante los años 60, varios grupos trabajaron en el concepto de la
conmutación de paquetes. Normalmente se considera que Donald
Davies (National Physical Laboratory), Paul Baran (Rand Corporation)
y Leonard Kleinrock (MIT) lo han inventado simultáneamente.4
La conmutación es una técnica que nos sirve para hacer un uso eficiente
de los enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes: los
datos propiamente dichos y la información de control, en la que está
especificado la ruta a seguir a lo largo de la red hasta el destino del
paquete. Mil octetos es el límite de longitud superior de los paquetes, y si
la longitud es mayor el mensaje se fragmenta en otros paquetes
Sus orígenes se remontan a la década de 1960, dentro de ARPA
(hoy DARPA) (las siglas en inglés de la Defense Advanced Research
Projects Agency), como respuesta a la necesidad de esta organización
de buscar mejores maneras de usar los computadores de ese entonces,
pero enfrentados al problema de que los principales investigadores y
laboratorios deseaban tener sus propios computadores, lo que no sólo
era más costoso, sino que provocaba una duplicación de esfuerzos y
recursos. El verdadero origen de Internet microsiervos (2005)</ref> Así
nace ARPANet (Advanced Research Projects Agency Network o Red de
la Agencia para los Proyectos de Investigación Avanzada de los Estados
Unidos), que nos legó el trazado de una red inicial de comunicaciones de
alta velocidad a la cual fueron integrándose otras instituciones
gubernamentales y redes académicas durante los años 70.8 9 10
Investigadores, científicos, profesores y estudiantes se beneficiaron de la
comunicación con otras instituciones y colegas en su rama, así como de
la posibilidad de consultar la información disponible en otros centros
académicos y de investigación. De igual manera, disfrutaron de la nueva
habilidad para publicar y hacer disponible a otros la información
generada en sus actividades.11 12
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el
primer documento sobre la teoría de conmutación de paquetes.
Kleinrock convenció aLawrence Roberts de la factibilidad teórica de las
comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un
gran avance en el camino hacia el trabajo informático en red. El otro
paso fundamental fue hacer dialogar a los ordenadores entre sí. Para
explorar este terreno, en 1965, Roberts conectó una computadora TX2
en Massachusetts con un Q-32 en California a través de una línea
telefónica conmutada de baja velocidad, creando así la primera (aunque
reducida) red de computadoras de área amplia jamás construida.13 14 15
1.2 HISTORIA
Sus orígenes se remontan a la década de 1960, dentro de ARPA
(hoy DARPA) (las siglas en inglés de la Defense Advanced Research
Projects Agency), como respuesta a la necesidad de esta organización
de buscar mejores maneras de usar los computadores de ese entonces,
pero enfrentados al problema de que los principales investigadores y
laboratorios deseaban tener sus propios computadores, lo que no sólo
era más costoso, sino que provocaba una duplicación de esfuerzos y
recursos. El verdadero origen de Internet microsiervos (2005)</ref> Así
nace ARPANet (Advanced Research Projects Agency Network o Red de
la Agencia para los Proyectos de Investigación Avanzada de los Estados
Unidos), que nos legó el trazado de una red inicial de comunicaciones de
alta velocidad a la cual fueron integrándose otras instituciones
gubernamentales y redes académicas durante los años 70.8 9 10
Investigadores, científicos, profesores y estudiantes se beneficiaron de la
comunicación con otras instituciones y colegas en su rama, así como de
la posibilidad de consultar la información disponible en otros centros
académicos y de investigación. De igual manera, disfrutaron de la nueva
habilidad para publicar y hacer disponible a otros la información
generada en sus actividades.11 12
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el
primer documento sobre la teoría de conmutación de paquetes.
Kleinrock convenció a Lawrence Robertsde la factibilidad teórica de las
comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un
gran avance en el camino hacia el trabajo informático en red. El otro
paso fundamental fue hacer dialogar a los ordenadores entre sí. Para
explorar este terreno, en 1965, Roberts conectó una computadora TX2
en Massachusetts con un Q-32 en California a través de una línea
telefónica conmutada de baja velocidad, creando así la primera (aunque
reducida) red de computadoras de área amplia jamás construida
1.3 CRONOLOGÍA DE LA INTERNET
1969: La primera red interconectada nace el 21 de noviembre de
1969, cuando se crea el primer enlace entre las universidades de
UCLA y Stanford por medio de la línea telefónica conmutada, y
gracias a los trabajos y estudios anteriores de varios científicos y
organizaciones desde 1959 (ver: Arpanet). El mito de que
ARPANET, la primera red, se construyó simplemente para sobrevivir
a ataques nucleares sigue siendo muy popular. Sin embargo, este no
fue el único motivo. Si bien es cierto que ARPANET fue diseñada
para sobrevivir a fallos en la red, la verdadera razón para ello era
que los nodos de conmutación eran poco fiables, tal y como se
atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que
ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca
fue cierto, solamente un estudio de RAND, no relacionado con
ARPANET, consideraba la guerra nuclear en la transmisión segura
de comunicaciones de voz. Sin embargo, trabajos posteriores
enfatizaron la robustez y capacidad de supervivencia de grandes
porciones de las redes subyacentes. (Internet Society, A Brief History
of the Internet)
1972 : Se realizó la Primera demostración pública de ARPANET, una
nueva red de comunicaciones financiada por la DARPA que
funcionaba de forma distribuida sobre la red telefónica conmutada. El
éxito de ésta nueva arquitectura sirvió para que, en 1973,
la DARPA iniciara un programa de investigación sobre posibles
técnicas para interconectar redes (orientadas al tráfico de paquetes)
de distintas clases. Para este fin, desarrollaron nuevos protocolos de
comunicaciones que permitiesen este intercambio de información de
forma "transparente" para las computadoras conectadas. De la
filosofía del proyecto surgió el nombre de "Internet", que se aplicó al
sistema de redes interconectadas mediante los protocolos TCP e
IP.16
1983 : El 1 de enero, ARPANET cambió el protocolo NCP por
TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el
protocolo TCP/IP y de proporcionar recursos de investigación a
Internet. Por otra parte, se centró la función de asignación de
identificadores en la IANA que, más tarde, delegó parte de sus
funciones en el Internet registry que, a su vez, proporciona servicios
a los DNS.17 18
1986 : La NSF comenzó el desarrollo de NSFNET que se convirtió en
la principal Red en árbol de Internet, complementada después con
las redes NSINET y ESNET, todas ellas en Estados Unidos.
Paralelamente, otras redes troncales en Europa, tanto públicas como
comerciales, junto con las americanas formaban el esqueleto básico
("backbone") de Internet.19 20
1989 : Con la integración de los protocolos OSI en la arquitectura de
Internet, se inició la tendencia actual de permitir no sólo la
interconexión de redes de estructuras dispares, sino también la de
facilitar el uso de distintos protocolos de comunicaciones.
1990: El CERN crea el código HTML y con él el primer cliente World
Wide Web. En la imagen el código HTML con sintaxis coloreada.
En el CERN de Ginebra, un grupo de físicos encabezado por Tim
Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el
mismo equipo construyó el primer cliente Web,
llamado WorldWideWeb (WWW), y el primer servidor web.
A inicios de la década de 1990, con la introducción de nuevas
facilidades de interconexión y herramientas gráficas simples para el
uso de la red, se inició el auge que actualmente le conocemos al
Internet. Este crecimiento masivo trajo consigo el surgimiento de un
nuevo perfil de usuarios, en su mayoría de personas comunes no
ligadas a los sectores académicos, científicos y gubernamentales.
Esto ponía en cuestionamiento la subvención del gobierno
estadounidense al sostenimiento y la administración de la red, así
como la prohibición existente al uso comercial del Internet. Los
hechos se sucedieron rápidamente y para 1993 ya se había
levantado la prohibición al uso comercial del Internet y definido la
transición hacia un modelo de administración no gubernamental que
permitiese, a su vez, la integración de redes y proveedores de
acceso privados. El 30 de abril de 1993 la Web entró al dominio
público, ya que el CERN, entregó las tecnologías de forma gratuita
para que cualquiera pudiera utilizarlas.
2006 : El 3 de enero, Internet alcanzó los mil cien millones de
usuarios. Se prevé que en diez años, la cantidad de navegantes de la
Red aumentará a 2000 millones.
El resultado de todo esto es lo que experimentamos hoy en día: la
transformación de lo que fue una enorme red de comunicaciones
para uso gubernamental, planificada y construida con fondos
estatales, que ha evolucionado en una miríada de redes privadas
interconectadas entre sí. Actualmente la red experimenta cada día la
integración de nuevas redes y usuarios, extendiendo su amplitud y
dominio, al tiempo que surgen nuevos mercados, tecnologías,
instituciones y empresas que aprovechan este nuevo medio, cuyo
potencial apenas comenzamos a descubrir.
1.4 EVOLUCIÓN DE LA INTERNET EN LA HISTORIA
Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet
para algo muy concreto: búsquedas de información, generalmente.
Ahora quizás también, pero sin duda alguna hoy es más probable
perderse en la red, debido al inmenso abanico de posibilidades que
brinda. Hoy en día, la sensación que produce Internet es un ruido, una
serie de interferencias, una explosión de ideas distintas, de personas
diferentes, de pensamientos distintos de tantas posibilidades que, en
ocasiones, puede resultar excesivo.
El crecimiento o, más bien, la incorporación de tantas personas a la red
hace que las calles de lo que en principio era una pequeña ciudad
llamada Internet se conviertan en todo un planeta extremadamente
conectado entre sí, entre todos sus miembros.
El hecho de que Internet haya aumentado tanto implica una mayor
cantidad de relaciones virtuales entre personas. Es posible concluir que
cuando una persona tenga una necesidad de conocimiento no escrito en
libros, puede recurrir a una fuente más acorde a su necesidad, ahora
esta fuente es posible en Internet.
Como toda gran revolución, Internet augura una nueva era de diferentes
métodos de resolución de problemas creados a partir de soluciones
anteriores.
Internet produce algo que todos han sentido alguna vez; produce la
esperanza que es necesaria cuando se quiere conseguir algo. Es un
despertar de intenciones que jamás antes la tecnología había logrado en
la población mundial.
Para algunos usuarios, Internet genera una sensación de cercanía,
empatía, comprensión y, a la vez, de confusión, discusión, lucha y
conflictos que los mismos usuarios pueden considerar como la vida
misma.
La evolución del internet radica en la migración de la versión y uso del
IPv4 a IPv6.
IP es un protocolo que no está orientado a la conexión y no es
completamente seguro en la transmisión de los datos, lo anterior permite
que las conexiones inalámbricas tengan siempre movilidad. Por otro
lado, para mejorar la confiabilidad se usa el protocolo TCP. El protocolo
IP, es la forma en la que se enrutan los paquetes entre las redes. Cada
nodo en cada una de las redes tiene una dirección IP diferente. Para
garantizar un enrutamiento correcto, IP agrega su propio encabezado a
los paquetes. Este proceso se apoya en tablas de enrutamiento que son
actualizadas permanentemente. En caso de que el paquete de datos sea
demasiado grande, el protocolo IP lo fragmenta para poderlo transportar.
La versión que se está ocupando de este protocolo es la 4, donde se
tiene conectividad, pero también ciertas restricciones de espacio. Es por
eso que la grandes empresas proveedoras del servicio de internet
migraran a la versión IPv6.
La nueva versión del protocolo IP Internet Protocol recibe el nombre de
IPv6, aunque es también conocido comúnmente como IPng Internet
Protocol Next Generation. IPv6 ha sido diseñado como un paso evolutivo
desde IPv4, por lo que no representa un cambio radical respecto IPv4.
Las características de IPv4 que trabajan correctamente se han
mantenido en el nuevo protocolo, mientras que se han suprimido
aquéllas que no funcionaban bien. De todos modos, los cambios que se
introducen en esta nueva versión son muchos y de gran importancia
debido a las bondades que ofrecen. A principios de 2010, quedaban
menos del 10% de IPs sin asignar. En la semana del 3 de febrero del
2011, la IANA (Agencia Internacional de Asignación de Números de
Internet, por sus siglas en inglés) entregó el último bloque de direcciones
disponibles (33 millones) a la organización encargada de asignar IPs en
Asia, un mercado que está en auge y no tardará en consumirlas todas.
IPv4 posibilita 4,294,967,296 (232) direcciones de red diferentes, un
número inadecuado para dar una dirección a cada persona del planeta, y
mucho menos a cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6
admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o
340 sextillones de direcciones) —cerca de 6,7 × 1017 (670 mil billones)
de direcciones por cada milímetro cuadrado de la superficie de La Tierra.
Otra vía para la popularización del protocolo es la adopción de este por
parte de instituciones. El Gobierno de los Estados Unidos ordenó el
despliegue de IPv6 por todas sus agencias federales en el año 2008.
CAPITULO II
ARPANET
2.1 INTRODUCCION
La Agencia de Proyectos de Investigación Avanzada de red ( ARPANET ) fue uno de los primeros en funcionamiento del mundo de paquetes de conmutación de redes, la primera red de implementar TCP / IP , y uno de los progenitores de lo que iba a convertirse en el mundial de Internet . La red fue inicialmente financiado por la Agencia de Proyectos de Investigación Avanzada (ARPA, más tarde DARPA ) en el Departamento de Defensa de Estados Unidos para el uso de sus proyectos en universidades y laboratorios de investigación en los EE.UU. La conmutación de paquetes de ARPANET, junto con TCP / IP, se formaría la columna vertebral de cómo funciona Internet. La conmutación de paquetes se basa en conceptos y diseños de ingeniero estadounidense Paul Baran , galés científico Donald Davies [ 1 ] [ 2 ] y Lawrence Roberts del Laboratorio Lincoln . [ 3 ]Los protocolos de comunicación TCP / IP se desarrollaron para ARPANET por científicos de la computación Robert Kahn yVinton Cerf , y también incorporan algunos diseños de Louis Pouzin
2.2 INICIOS
La red Arpanet nació en mil novecientos sesenta y nueve como resultado de un proyecto de investigación del Departamento de Defensa norteamericano, que trataba de encontrar una vía de comunicación alternativa a la comunicación a través de radio, ya que se preveía que en el caso de una guerra nuclear, temor con fundamento en aquella época, las comunicaciones por radio se verían fuertemente afectadas.
Arpanet estaba fundamentada en una red compuesta por diferentes ordenadores en la que todos los nodos tenían la misma importancia, consiguiendo así, que en el caso de que alguno de ellos se veía manipulado o quedaba deteriorado, la red no se veía afectada. La clave de Arpanet estaba en que los datos eran enviados mediante diferentes rutas, confluyendo finalmente en un mismo punto de destino. De esta forma, la información se desgranaba en pequeñas unidades que eran enviadas a través de la ruta menos ocupada, para reunirse en el punto de destino. Con ello se conseguía la no existencia de ningún control centralizado, por lo que la seguridad de las comunicaciones aumentaba.
2.3 CREACION
A mediados de 1968, Taylor había preparado un plan completo para una
red de ordenadores, y, después de la aprobación de ARPA, una solicitud
de cotización (RFQ) fue enviado a 140 posibles licitadores. La mayoría
de las empresas de informática consideraron la propuesta de ARPA-
Taylor como extravagante, y sólo doce ofertas presentadas para
construir la red; de los doce, ARPA sólo cuatro como contratistas de
primer rango considerado. Al final del año, ARPA considera sólo dos
contratistas, y adjudicó el contrato para construir la red de BBN
Technologies , el 7 de abril de 1969. El, siete personas equipo inicial
BBN fueron mucho ayudado por la especificidad técnica de su respuesta
a la petición de oferta ARPA - y así producido rápidamente las
computadoras primer trabajo. Este equipo fue dirigido por Frank
Corazón. La red propuesta-BBN seguido de cerca el plan ARPA de
Taylor: una red compuesta por pequeños ordenadores llamado Interface
Message Processors (PIM: pedido hoy routers ), que funcionó como
pasarelas de interconexión de los recursos locales. En cada sitio, los
PIM realizaron store-and-forward de paquetes funciones de
conmutación, y se interconectan con los módems que estaban
conectados a las líneas arrendadas , inicialmente funcionando a 50 kbit /
segundo . Los ordenadores host fueron conectados a los PIM a través
personalizados de comunicación serial interfaces. El sistema, que
incluye el hardware y el software de conmutación de paquetes, fue
diseñado e instalado en nueve meses. [ 11 ]
Los PIM de primera generación se construyeron inicialmente por BBN
Technologies utilizando un equipo robusto versión del Honeywell DDP-
516 equipo configurado con 24 kB de ampliable la memoria de base , y
una de 16 canales de control directo Multiplex (DMC) acceso directo a
memoria unidad. [ 12 ] La DMC estableció interfaces personalizadas con
cada uno de los equipos host y módems. Además de las lámparas del
panel frontal, el equipo DDP-516 también cuenta con un conjunto
especial de 24 indicadores-lámparas que muestra el estado de los
canales de comunicación de la PMI. Cada IMP podría soportar hasta
cuatro anfitriones locales, y podía comunicarse con hasta seis PIM
remotos a través de líneas arrendadas.La red conecta una computadora
en Utah con tres en California. Más tarde, el Departamento de Defensa
permitió las universidades se unan a la red para compartir recursos de
hardware y software.
2.3.1 CRECIMIENTO Y EVOLUCIÓN
En marzo de 1970, la ARPANET llegó a la costa este de los
Estados Unidos, cuando un IMP en BBN en Cambridge,
Massachusetts estaba conectado a la red. A partir de entonces, la
ARPANET creció: 9 PIM antes de junio de 1970 y 13 PIM por
diciembre de 1970, entonces de 18 años en septiembre de 1971
(cuando la red incluye 23 universitarios y gubernamentales
anfitriones); 29 PIM de agosto de 1972 y el 40 de septiembre de
1973. Para junio del 1974, hubo 46 PIM, y en julio de 1975, la red
numeradas 57 PIM. Para 1981, el número fue de 213
computadoras centrales, con otro host que se conecta
aproximadamente cada veinte días. [ 17 ]
En 1973 un enlace satelital transatlántica conectado el array
sísmico noruego (NORSAR) a la ARPANET, haciendo Noruega el
primer país fuera de los EE.UU. para ser conectado a la red. Casi
al mismo tiempo que un circuito terrestre añadió un Londres
IMP. [ 20 ]
En 1975, la ARPANET fue declarado "operativa". La Agencia de
Comunicaciones de Defensa tomó el control desde ARPA se
destina a financiar la investigación avanzada. [ 17 ]
En 1983, la ARPANET se dividió con las instalaciones militares
estadounidenses en su propia red Militar ( MILNET ) para las
comunicaciones del Departamento de Defensa no clasificados. La
combinación se llama la Red de Datos de Defensa (DDN). [ 21 ] La
separación de las redes civiles y militares redujeron la ARPANET
113 nodos por 68 nodos.Gateways retransmite el correo
electrónico entre las dos redes. MILNET más tarde se convirtió en
el NIPRNet .
2.4 TECNOLOGÍA
Soporte para circuitos inter-IMP de hasta 230,4 kbit / s se añadió en
1970, aunque las consideraciones de costo y IMP potencia de
procesamiento significaba esta capacidad no se utiliza activamente.
1971 vio el inicio del uso de la no robustos (y por lo tanto
significativamente más ligero) Honeywell 316 como un IMP. También
puede ser configurado como un procesador Terminal Interface (TIP), que
proporcionó terminal server soporte para hasta 63 ASCII terminales de
serie a través de un controlador de varias líneas en lugar de uno de los
anfitriones. [ 23 ] El 316 muestran un mayor grado de la integración de la
516, lo que hizo menos costoso y más fácil de mantener. El 316 se ha
configurado con 40 kB de memoria de base para un TIP. El tamaño de la
memoria del núcleo más tarde se incrementó, a 32 KB para los PIM, y 56
kB para las extremidades, en 1973.
En 1975, introdujo BBN software IMP se ejecuta en el Pluribus multi-
procesador . Estos aparecieron en algunos sitios. En 1981, introdujo
BBN IMP software que se ejecuta en su propio producto C / 30
procesador.
En 1983, TCP / IP protocolos reemplazados PNC como protocolo
principal de la ARPANET, y la ARPANET se convirtió entonces en una
subred de principios del Internet.[ 24 ] [ 25 ]
2.4.1 SOFTWARE
El punto de partida para la comunicación host-a-host en la ARPANET en 1969 fue el protocolo de 1822 , que define la transmisión de mensajes a un IMP. [ 31 ] El formato del mensaje fue diseñado para trabajar de forma inequívoca con una amplia gama de arquitecturas de computadora. Un mensaje de 1822 consistió esencialmente en un tipo de mensaje, una dirección de host numérico, y un campo de datos. Para enviar un mensaje de datos a otro host, el host transmisor formatea un mensaje de datos que contiene la dirección del host de destino y el mensaje de datos que se envían y, a continuación, transmite el mensaje a través de la interfaz de 1.822 hardware. El IMP luego entregó el mensaje a su dirección de destino, ya sea por la entrega a un host conectado a nivel local, o mediante la entrega a otro IMP. Cuando el mensaje fue finalmente entregado al host de destino, el IMP receptora transmitirá una Listo para Siguiente mensaje (RFNM) acuse de recibo al envío, de acogida IMP.
A diferencia de los datagramas modernas de Internet, ARPANET fue diseñada para transmitir de forma fiable 1.822 mensajes, y para informar a la computadora host cuando pierde un mensaje; lo contemporáneo IP no es fiable, mientras el TCP es fiable. Sin embargo, el protocolo de 1822 resultó insuficiente para manejar múltiples conexiones entre las diferentes aplicaciones que residen en un equipo host. Este problema se abordó con el Programa de Control de Red (NCP), que proporciona un método estándar para establecer,, enlaces fiables de flujo controlado bidireccional de comunicación entre los diferentes procesos en diferentes equipos host. La interfaz permite PNC software de aplicación para conectarse a través de la ARPANET mediante la implementación de más alto nivel protocolos de comunicación , un ejemplo temprano del protocolo de capasconcepto incorporado al modelo OSI .
En 1983, TCP / IP protocolos reemplazados PNC como protocolo principal de la ARPANET, y la ARPANET se convirtió entonces en un componente de la temprana Internet.
2.5 LAS APLICACIONES DE RED
PNC proporciona un conjunto estándar de servicios de red que podrían
ser compartidos por varias aplicaciones que se ejecutan en un único
equipo host. Esto condujo a la evolución de los protocolos de
aplicación que operaban, más o menos, independientemente del servicio
de red subyacente. Cuando ARPANET emigró a los protocolos de
Internet en 1983, los principales protocolos de aplicación emigraron con
él.
E-mail: En 1971, Ray Tomlinson , de BBN envió la primera red de
correo electrónico ( RFC 524 , RFC 561 ). [ 32 ] En 1973, el correo
electrónico constituida el 75 por ciento del tráfico de ARPANET.
Transferencia de archivos: Para 1973, el Protocolo de Transferencia
de Archivos (FTP) especificación se había definido ( RFC 354 ) y
puesto en práctica, lo que permite la transferencia de archivos más
de la ARPANET.
El tráfico de voz: Los Protocolo de red de voz especificaciones (NVP)
se definieron en 1977 ( RFC 741 ), a continuación, en práctica, pero,
debido a deficiencias técnicas,llamadas de conferencia sobre el
ARPANET nunca funcionó bien; el contemporáneo de Voz sobre
Protocolo de Internet (voz por paquetes) fue a décadas de distancia.
2.6 PROTECCION DE CONTRASEÑAS
El Purdy polinómica algoritmo de control fue desarrollado para
ARPANET para proteger las contraseñas en 1971 a petición de Larry
Roberts, director de ARPA en ese momento. Se calcula un polinomio de
grado 2 24 + 17 modulo el primo p 64 bits = 2 64 - 59. El algoritmo fue
utilizado más adelante por diciembre para discutir las contraseñas en
sus OpenVMS sistema operativo, y todavía se utiliza para este propósito.
2.7 EL FINAL DE ARPANET
Entre 1969 y 1977, Arpanet creció de una red de cuatro ordenadores a otra con más de cien ordenadores que pertenecían a universidades, centros de investigación y centros militares. Usando enlaces de satélite, Arpanet consiguió conectar sistemas de ordenadores desde Estados Unidos a Europa y Hawai. Aunque el sistema había crecido, poca gente tenía acceso al sistema. Generalmente, el público no conocía la existencia de Arpanet.
Otras redes empezaron a surgir, donde se pueden resaltar USENET, BITNET o Ethernet. Se creo un protocolo de enrutamiento llamado EGP (External Gateway Protocol), que hacia posible que redes separadas pudieran acceder entre si, aunque el acceso a Arpanet seguía restringido a usos oficiales. En 1983, la sección militar de Arpanet se separo de la red, dejando únicamente algunas pasarelas de correo electrónico.
En 1986, cinco centros de súper ordenadores formaron una red llamada NSFNET. En poco tiempo, creció incluyendo varias universidades, y al mismo tiempo, otras redes comenzaron a consolidarse como sistemas de gran tamaño. La gente empezó a referirse a esta colección de redes y pasarelas como Internet. La estructura de Arpanet estaba empezando a mostrar su edad. Los sistemas IMP no eran tan eficientes y potentes
como los nodos de ordenadores de otros sistemas de redes. Las organizaciones empezaron a hacer una transición a otras redes, principalmente NSFNET. En 1990, DARPA dio fin al proyecto de Arpanet, ya que esta había cumplido sus objetivos.
CAPITULO III
La Intranet
3.1 INTRODUCCION
Las Intranets son redes privadas que se han creado utilizando las normas y protocolos de Internet. Aportan la interfaz de exploración del World Wide Web (www) a la información y servicios almacenados en una red de área local (LAN) corporativa. Las intranets son atractivas por que disminuyen el costo de mantenimiento de una red interna y, al mismo tiempo, aumenta la productividad, ya que ofrece a los usuarios acceso mas eficaz a la información y a los servicios que necesitan.Con el enorme crecimiento de Internet, un gran numero de personas en las empresas usan Internet para comunicarse con el mundo exterior, para reunir información, y para hacer negocios. A la gente no le lleva mucho tiempo reconocer que los componentes que funcionan tan bien en Internet serían del mismo modo valioso en el interior de sus empresas y esa es la razón por la que las Intranets se están haciendo tan populares.
3.2 INTRANET
La Intranet esta basada en los estándares y protocolos abiertos desarrollados en Internet. Estos estándares abiertos soportan aplicaciones y servicios como correo electrónico (e-mail), trabajo en grupo (work group), servicio de directorio, seguridad, acceso a bases de datos, compartición de información y administración de sistema. La Intranet se beneficia del esfuerzo de la industria entera y no de un solo fabricante.
Las aplicaciones que permiten a los distintos departamentos empresariales enviar información, y a los empleados rellenar formularios de la empresa (como las hojas de asistencia) y utilizar la información corporativa financiera, son muy populares. La mayoría del software que se utiliza en las Intranets es estándar: software de Internet como el Netscape, Navigator y los navegadores Explorer para Web de Microsoft. Y los programas personalizados se construyen frecuentemente usando el lenguaje de programación de Java y el de guión de CGI.
Las Intranets también se pueden utilizar para permitir a las empresas llevar a cabo transacciones de negocio a negocio como: hacer pedidos, enviar facturas, y efectuar pagos. Para mayor seguridad, estas transacciones de Intranet a Intranet no necesitan nunca salir a Internet, pero pueden viajar por líneas alquiladas privadas. Son un sistema poderoso para permitir a una compañía hacer negocios en línea, por ejemplo, permitir que alguien en Internet pida productos.
Cuando alguien solicita un producto en Internet, la información se envía de una manera segura desde Internet a la red interna de la compañía, donde se procesa y se completa el encargo.
3.3 E-MAIL DENTRO DE UNA INTRANET:
Probablemente la parte más usada de una Intranet que no tiene nada que ver con bases de datos de la empresa, páginas Web ostentosas, o contenido multimedia es el uso del correo electrónico. Las Intranets empresariales pueden emplear diferentes programas e-mail, como: Mail Microsoft Mail o Lotus Notes, entre otros. Pero la arquitectura más común que sirve de base al uso del e-mail de las redes internas es el protocolo llamado Protocolo simple de Transferencia de Correo, o SMTP.
3.4 SEGURIDAD DE LA INTRANET
Cualquier Intranet es vulnerable a los ataques de personas que tengan el propósito de destruir o robar datos empresariales. La naturaleza sin limites de Internet y los protocolos TCP/IP exponen a una empresa a este tipo de ataques. Las Intranets requieren varias medidas de seguridad, incluyendo las combinaciones de hardware y software que proporcionan el control del tráfico; la encriptación y las contraseñas para convalidar usuarios; y las herramientas del software para evitar y curar de virus, bloquear sitios indeseables, y controlar el tráfico.
El término genérico usado para denominar a una línea de defensa contra intrusos es firewall. Un firewall es una combinación de hardware / software que controla el tipo de servicios permitidos hacia o desde la Intranet.
Los firewalls protegen a las Intranets de los ataques iniciados contra ellas desde Internet. Están diseñados para proteger a una Intranet del acceso no autorizado a la información de la empresa, y del daño o rechazo de los recursos y servicios informáticos. También están diseñados para impedir que los usuarios internos accedan a los servicios de Internet que puedan ser peligrosos, como FTP. Las computadoras de las Intranets sólo tienen permiso para acceder a Internet después de atravesar un firewall.
3.4.1 ENCRIPTACIÓN
Un medio de asegurar una Intranet es usar la encriptación: alterar datos para que sólo alguien con acceso a códigos específicos para descifrar pueda comprender la información. La encriptación se utiliza para almacenar y enviar contraseña para asegurarse de que ningún fisgón pueda entenderla. La encriptación se emplea también cuando se envían datos entre Intranets en Redes Privadas Muy Seguras (VSPN). Además la encriptación se usa para dirigir el comercio en Internet y proteger la información de la tarjeta de crédito durante la transmisión.Las claves son el centro de la encriptación. Las claves son formulas matemáticas complejas (algoritmos), que se utilizan para cifrar y descifrar mensajes. Si alguien cifra un mensaje sólo otra persona con la clave exacta será capaz de descifrarlo.
3.5 LAS VENTAJAS DE IMPLEMENTAR INTRANET
Los beneficios de la implementación de una Intranet son:
Mayor eficacia organizacional y productividad.
Ahorro de recursos y la preparación de la empresa en una tecnología fundamental para la supervivencia en la Nueva Economía, en las áreas funcionales de servicio al cliente, ventas y marketing, producción y operaciones, ingeniería, recursos humanos, administración, contabilidad y finanzas.
Mejoría en el clima organizacional con efectos directos en la satisfacción de sus clientes y accionistas.
Un beneficio clave de la tecnología Intranet es la habilidad de entregar información actualizada de manera rápida y costo eficiente a toda la base de usuarios. Una Intranet pone información vital al alcance de todos los empleados con acceso a ella. Otra característica que vale la pena mencionar, es la consistencia, porque la información es la misma a lo largo y ancho de la empresa.
Al darle a las personas la posibilidad de acceder a tiempo a información crítica, esta tecnología mejora el proceso de toma de decisiones. Es posible organizar y mantener información centralizada o distribuida según se requiera o se facilite para la obtención y actualización.
Al proveer información instantánea y segura en formato electrónico, se elimina el tiempo y costo asociado a la publicación, duplicación y distribución asociados a la documentación en papel.
Las tecnología Intranet, también permiten compartir información y conocimientos independientemente de la ubicación.
Los grupos multidisciplinarios y multi-departamentales muy en boga, pueden aprovechar grandemente los grupos de discusión virtuales y boletines informativos para preparar reuniones o mejorar la toma de decisiones. Con anchos de banda suficientes, es posible realizar video-conferencias con audio y video en tiempo real.
Con el apoderamiento que da la Intranet, viene la capacidad (muy deseable por cierto) que los usuarios mismos publiquen por su cuenta información de interés de su grupo de trabajo o de la empresa entera.
3.6 IMPORTANCIA
Para casi cualquier empresa de hoy en día, y muy especialmente en un futuro muy cercano, la intranet va ha ser un recurso indispensable. Dada la gran cantidad de datos que genera cualquier empresa, se están quedando obsoletos los actuales métodos de inserción y consulta de datos. Una intranet puede resolver estos y otros problemas.
Una Intranet puede resolver, por ejemplo, el problema de la distribución de información para todos los empleados , así pues se pueden publicar manuales, planes de acción, procedimientos, material de formación, folletos de marketing y productos, listas de precios, información comercial, anuncios, promociones etc. Y son accesibles para el empleado o cliente de forma inmediata, y con un ahorro considerable respecto a los métodos clásicos, panfletos, circulares, notas informativas, etc. Además cualquier actualización de datos es inmediata y no supone ninguna carga para la empresa como los métodos tradicionales.
Una intranet organiza, además, la distribución de una empresa, ya que cada división puede tener su apartado en la intranet. Se puede organizar también una lista de encuentros y reuniones a la que cada empleado podrá acceder rápidamente, planificando así las reuniones de empresa de una forma más eficaz. Se mejora de esta forma la comunicación entre todos los trabajadores, y las sugerencias, peticiones o cualquier comunicación en general, se realiza de una forma más rápida y eficiente.
Se aprovechará también la potencia de una intranet para tener acceso rápido a cualquier documento de la empresa, siempre que se tenga el nivel de privilegios adecuado. Esta es otra de las ventajas de una intranet, su seguridad. Solo tendrán acceso a los recursos aquellos empleados que lo necesiten realmente. Siguiendo con la potencia y velocidad de acceso a datos de una intranet, el tiempo empleado en realizar cualquier búsqueda de datos de cualquier departamento de la empresa se reduce considerablemente, por lo que la productividad de la empresa mejora.
3.7 EJEMPLO DE INTRANET
En la Intranet de una empresa, el acceso a la información es muy similar al acceso a Internet. Ello supone que, si conocemos el proceso para Internet, será casi automático empezar a utilizar una intranet (con el ahorro en formación que eso supone para la empresa).
Se puede describir el proceso de la siguiente manera: Todas las máquinas cliente (PCs locales conectados a una máquina Servidor de Web), utilizan un software especial, un browser (navegador; por ejemplo, Netscape Navigator o Internet Explorer), además de software especial para el correo electrónico, FTP y demás servicios.
El usuario hace click en un hipervínculo, que envía una petición de información al servidor. El hipervínculo contiene el nombre del servidor donde está localizada la información, y el nombre del archivo que ha de ser cargado en el browser.
El servidor lee la petición, vuelca el archivo, y lo manda al cliente.
Para ver el gráfico seleccione la opción "Descargar" del menú superior
El cliente recibe el archivo y lo deposita en la ventana del browser (siempre que dicho archivo sea compatible con el web, por ejemplo, con formato HTML y otros). Puede ocurrir también que el archivo se deposite en discos o en aplicaciones especiales.
3.8 TIPOS DE INTRANETS
Esencialmente, existen tres tipos de intranets según el tamaño de éstas y la distancia entre sus nodos (entendiéndose por nodo cada uno de los equipos que está conectado a dicha intranet)
Por un lado, estarían las LAN. Estas son las redes locales de siempre, el número de nodos conectados a ella van desde 2 a 50 y están situados físicamente cerca y, por lo general, suelen ser redes pertenecientes a las oficinas de una empresa.
Otro segundo tipo de redes son las MAN (Metropolitan Area Network).
Este tipo de redes suele contener varias LAN, y por lo general forman este tipo de redes en los campus universitarios.
Por último, se encuentran las WAN (Wide Area Network), las cuales tienen un ámbito mundial, y suelen incluir, además de la transmisión mediante cables, la conexión mediante satélite y radiofrecuencia. Un ejemplo muy claro de este tipo de redes son las redes corporativas mundiales de empresas como British Telecom o Microsoft, que permiten que todos los empleados reciban las consignas de las oficinas centrales a la vez.
3.8.1 INTRANET EN LAS EMPRESAS
Cada uno de los departamentos necesita tener un medio expedito para poder informar, difundir o hacer llegar boletines,
procedimientos, formularios, calendarios, proyectos, aprobaciones, autorizaciones, modificaciones, planificaciones, etc.
El medio generalmente utilizado es el escrito ("Papel") pero naturalmente las necesidades dependen del tipo de empresa y su tamaño. Sin embargo, es importante desarrollar procedimientos de creación y actualización de los contenidos, así como definir un formato para cada tipo de información.
Algunos de los principales objetivos de Operación y Administración son:
Información de la Empresa. Información para Ejecutivos. Información para Empleados. Políticas y Procedimientos. Administración de Venta /. Administración Comercial /Financiera. Control de Activos /Pasivos.
CAPITULO IV
Internet
4.1 INTERNET
Lo que se conoce hoy en día como Internet es en realidad un conjunto de redes independientes que se encuentran conectadas entre sí permitiendo la comunicación entre las computadoras y construyendo una red mundial para el intercambio de información y datos de todo tipo y la interacción en tiempo real con otras personas. Internet se ha de considerar una red de redes. es decir, una red que no sólo interconecta computadoras, sino que interconecta redes de computadoras entre sí, de esta manera, Internet sirve de enlace entre redes más pequeñas y permite ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene la característica de que utiliza un lenguaje común que garantiza la intercomunicación de los diferentes participantes; este lenguaje común o protocolo (un protocolo es el lenguaje que utilizan las computadoras al compartir recursos) se conoce como TCP/IP.Así pues, Internet es la "red de redes" que utiliza TCP/IP como su protocolo de comunicación.
Internet es un acrónimo de INTERconected NETworks (Redes interconectadas). Para otros, Internet es un acrónimo del inglés INTERnational NET, que traducido al español sería Red Mundial.El TCP / IP es la base de Internet que sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local y área extensa. TCP / IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en ARPANET,, una red de área extensa del departamento de defensa.
Aunque el uso comercial estaba prohibido, su definición exacta era subjetiva y no muy clara. Todo el mundo estaba de acuerdo en que una compañía enviando una factura a otra compañía era claramente uso comercial, pero cualquier otro asunto podía ser debatido. UUCPNet y la IPSS X.25 no tenían esas restricciones, que eventualmente verían la excepción oficial del uso de UUCPNet en conexiones ARPANET y NSFNet. A pesar de ello, algunas conexiones UUCP seguían conectándose a esas redes, puesto que los administradores hacían la vista gorda ante su funcionamiento.
4.2 SERVICIOS DE INTERNET
En Internet se puede encontrar una amplia diversidad de servicios, entre los cuales tenemos:
4.2.1 WWW (world wide web)
Se trata de un sistema de distribución de información tipo revista. En la Red quedan almacenadas lo que se llaman Páginas Web, que no son más que páginas de texto con gráficos o fotos. Aquellos que se conecten a Internet pueden pedir acceder a dichas páginas y acto seguido éstas aparecen en la pantalla de su ordenador. Este sistema de visualización de la información revolucionó el desarrollo de Internet. A partir de la invención de la WWW, muchas personas empezaron a conectarse a la Red desde sus domicilios, como entretenimiento. Internet recibió un gran impulso, hasta el punto de que hoy en día casi siempre que hablamos de Internet, nos referimos a la WWW.
Es muy común encontrar el prefijo "WWW" al comienzo de
las direcciones web debido a la costumbre de nombrar a los host
de Internet (los servidores) con los servicios que proporcionan. De
esa forma, por ejemplo, el nombre de host para un servidor
web normalmente es "WWW", para un servidor FTP se suele usar
"ftp", y para un servidor de noticias, USENET, "news" o "nntp" (en
relación al protocolo de noticias NNTP). Estos nombres de host
aparecen como subdominio de DNS, como en
"www.example.com".
El uso de estos prefijos no está impuesto por ningún estándar, de
hecho, el primer servidor web se encontraba en
"nxoc01.cern.ch"29 e incluso hoy en día existen muchos sitios Web
que no tienen el prefijo "www". Este prefijo no tiene ninguna
relación con la forma en que se muestra el sitio Web principal. El
prefijo "www" es simplemente una elección para el nombre de
subdominio del sitio Web.
Algunos navegadores web añaden automáticamente "www." al principio, y posiblemente ".com"" al final, en las URL que se teclean, si no se encuentra el host sin ellas. Internet Explorer, Mozilla Firefox y Opera también añadirán "http://www." y ".com" al contenido de la barra de dirección si se pulsan al mismo tiempo las teclas de Control y Enter. Por ejemplo, si se teclea "ejemplo" en la barra de direcciones y luego se pulsa sólo Enter o Control+Enter normalmente buscará "http://www.ejemplo.com",
dependiendo de la versión exacta del navegador y su configuración.
4.2.2 EL CORREO ELECTRÓNICO.
El correo electrónico es un modo cómodo y rápido de comunicarse con otras personas. Puede utilizar el correo electrónico para:
Enviar y recibir mensajes de texto. Puede enviar un mensaje de correo electrónico a cualquier persona que disponga de una dirección de correo electrónico. El mensaje llega a la bandeja de entrada del destinatario en segundos o minutos, tanto si la persona que envía el mensaje es vecina suya como si vive en el otro extremo del mundo.
El correo electrónico es bidireccional. Puede recibir mensajes de cualquier persona que conozca su dirección de correo electrónico y, a continuación, leer y responder a esos mensajes.
Enviar y recibir archivos. Además de texto, puede enviar prácticamente cualquier tipo de archivo en un mensaje de correo electrónico, incluidos documentos, imágenes y música. Un archivo enviado en un mensaje de correo electrónico se denomina dato adjunto.
Enviar mensajes a grupos de personas. Puede enviar un mensaje de correo electrónico a muchas personas simultáneamente. Los destinatarios pueden responder a todo el grupo, lo cual hace posible los debates en grupo.
Reenviar mensajes. Cuando recibe un mensaje de correo electrónico, puede reenviarlo a otras personas sin necesidad de volver a escribirlo.
Una ventana del correo electrónico frente al teléfono o al correo tradicional es su comodidad: puede enviar un mensaje en cualquier momento del día o de la noche. Si los destinatarios no están delante del equipo y en línea (conectados a Internet), cuando envíe el mensaje, dicho mensaje esperará hasta la próxima vez que comprueben el correo electrónico. Si están en línea, puede obtener una respuesta en minutos.
Además, el correo electrónico es gratuito. A diferencia del envío tradicional de una carta, no se paga por el franqueo u otras tarifas, con independencia de donde viva el destinatario. Los únicos gastos que se aplican son los correspondientes a la conexión a Internet.
Es una de las herramientas de comunicación más efectiva y en muchos casos es preferible a las comunicaciones telefónicas, convirtiéndose en una de las características básicas de Internet.
Por este medio se pueden enviar texto, gráficos, hojas de cálculo, algunos programas ejecutables (dependiendo de la política del proveedor y del espacio que este le dé para su correo) Para realizar estas acciones se necesita contar con un programa de correo especial que sea capaz de acceder a su servidor de correo, como el programa de correo Microsoft Outlook; Lotus Mail, o con algún servicio gratuito de correo electrónico que ofrece el Internet (Yahoo Mail, Hotmail, Latin Mail, Gmail, Terra Mail, entre otros).
4.2.3 Chat, Messenger (conversación, mensajería)
Son programas y sitios que permiten que los usuarios se
comuniquen mediante el teclado, micrófono o ambos
en tiempo real. Estos facilitan muchas cosas ya que por este
medio los usuarios pueden buscar informaron de otro usuario que
este en línea, hablar sobre el tema, conocer gente de acuerdo a
tus intereses, bajar programas, música en formato Mp3 y un
millón de cosas más.
Entre los chats más usados tenemos el Msn Messenger, Yahoo
Messenger, SKYPE, AOL Instant Messenger, etc.
4.2.4 TELEFONÍA
Nos permiten establecer una conexión con voz entre dos personas conectadas a Internet desde cualquier parte del mundo sin tener que pagar el coste de una llamada internacional. Algunos de estos servicios incorporan no sólo voz, sino también imagen. A esto se le llama Videoconferencia.
4.2.5 LA VIDEOCONFERENCIA.
El núcleo tecnológico usado en un sistema de videoconferencia es
la compresión digital de los flujos de audio y vídeo en tiempo real.
Su implementación proporciona importantes beneficios, como el
trabajo colaborativo entre personas geográficamente distantes y
una mayor integración entre grupos de trabajo.
Esta permite mantener reuniones con grupos de personas situadas en lugares alejados entre sí, permitiendo el intercambio de información gráfica, de imágenes, la transferencia de archivos,
de vídeo, de voz, permite compartir el escritorio de una computadora, hacer presentaciones, etc.
En la actualidad, las limitaciones técnicas, tales como el sonido deficiente, la mala calidad de las imágenes, la poca fiabilidad, la complejidad y el costo, han quedado atrás dando lugar a videoconferencias de alta calidad con audio, vídeo, transferencia de archivos y de un costo más que accesible a la mayoría de los interesados.
Es decir, la videoconferencia ofrece hoy en día una solución accesible a la necesidad de comunicación, con sistemas que permiten el transmitir y recibir información visual y sonora entre puntos o zonas diferentes evitando así los gastos y pérdida de tiempo que implican el traslado físico de la persona.
Estas ventajas hacen a la videoconferencia el segmento de mayor crecimiento en el área de las telecomunicaciones.
4.3 RECURSOS
Esta palabra en el ámbito de Internet quiere decir el provecho que se le puede sacar a los distintos servicios que se ofrecen en la Web. O sea, es la utilización que le dan a los mismos para conformar nuevos servicios o para publicitar. Algunos de estos recursos son:
4.3.1 Banners (banderolas), cookies y enlaces
Son dispositivos que facilitan la navegación por Internet, conducen al usuario hacia las páginas del comercio y permiten al comerciante obtener información del cliente. Una cookie no es más que un fichero de texto plano que diferentes lenguajes de programación web, tanto del lado cliente como del lado servidor depositan en el disco duro de los visitantes de una página web, permitiendo almacenar en ellas valores de variables entre diferentes peticiones de páginas web. A diferencia de otros sistemas de persistencia de variables, como el uso de sesiones de usuario, las cookies son almacenadas en el disco duro del usuario, siendo el navegador web el que lee los valores en ellas contenidos y el encargado de pasarlos al servidor, liberando así éste de los recursos necesarios para estas labores.
4.3.2 Agentes y brokers
Son un colectivo de mediadores independiente de vendedores y empresas, especializados por mercados y muy vinculados con sus clientes. Estos pueden realizar tareas variadísimas, tantas
como pueda necesitar el mercado, desde la búsqueda de artículos por precios hasta analizadores de calidad.
4.3.3 Firewalls
Es un sistema o grupo de sistemas que impone una política de seguridad entre la organización de red privada y el Internet. El firewall determina cuál de los servicios de red pueden ser accedidos dentro de esta por los que están fuera, es decir quién puede entrar para utilizar los recursos de red pertenecientes a la organización. Para que un firewall sea efectivo, todo tráfico de información a través del Internet deberá pasar a través del mismo donde podrá ser inspeccionada la información. El firewall podrá únicamente autorizar el paso del tráfico, y el mismo podrá ser inmune a la penetración. Desgraciadamente, este sistema no puede ofrecer protección alguna una vez que el agresor lo traspasa o permanece en torno a este.
CAPITULO VI
LA INTERNET 2
6.1 INTRODUCCION
El uso de Internet como herramienta educativa y de investigación científica ha crecido aceleradamente debido a la ventaja que representa el poder acceder a grandes bases de datos, la capacidad de compartir información entre colegas y facilitar la coordinación de grupos de trabajo.
Internet 2 es una red de cómputo con capacidades avanzadas separada de la Internet comercial actual. Su origen se basa en el espíritu de colaboración entre las universidades del país y su objetivo principal es desarrollar la próxima generación de aplicaciones telemáticas para facilitar las misiones de investigación y educación de las universidades, además de ayudar en la formación de personal capacitado en el uso y manejo de redes avanzadas de cómputo.
Algunas de las aplicaciones en desarrollo dentro del proyecto de Internet 2 a nivel internacional son: telemedicina, bibliotecas digitales, laboratorios virtuales, manipulación a distancia y visualización de modelos 3D; aplicaciones todas ellas que no serían posibles de desarrollar con la tecnología del Internet de hoy.
En los Estados Unidos el proyecto que lidera este desarrollo es Internet2, en Canadá el proyecto CA*net3, en Europa los proyectos TEN-155 y GEANT, y en Asia el proyecto APAN. Adicionalmente, todas estas redes están conectadas entre si, formando una gran red avanzada de alta velocidad de alcance mundial.
En Latinoamérica, las redes académicas de México CUDI, Brasil, Argentina RETINA y Chile REUNA ya se han integrado a Internet2.
El proyecto Internet2 es administrado por la UCAID (Corporación Universitaria para el Desarrollo Avanzado de Internet) y es un esfuerzo de colaboración para desarrollar tecnología y aplicaciones avanzadas en Internet, vitales para las misiones de investigación y educación de las instituciones de educación superior.
El backbone de Internet2 (la red Abilene y la red vBNS) tiene velocidades que superan los 2 Gbps, y las conexiones de las universidades a este backbone varían entre 45 Mbps y 622 Mbps.
6.2 HISTORIA
A medida que Internet fue ganando reconocimiento público y popularidad, las universidades fueron las primeras instituciones en sobrepasar las limitaciones del ancho de banda de internet debido a los requisitos de transferencia de datos enfrentados por los investigadores académicos que necesitaban colaborar con sus colegas. Algunas universidades quisieron dar soporte a aplicaciones de alto rendimiento, como las utilizadas en la minería de datos, en procesamiento de imágenes médicas o física de partículas. El resultado fue la creación de un Servicio de Backbone de Red de Muy Alto Rendimiento (o vBNS, por su sigla en inglés), desarrollado en 1995 por el National Sciense Foundation y la MCI, creado para las supercomputadoras de las instituciones educativas. Tras la expiración del acuerdo con la NSF,
vBNS cambió hacia la provisión de servicios al gobierno estadounidense. Como resultado, la comunidad educativa y de investigación creó Internet2 para satisfacer sus necesidades de red.
El Proyecto Internet2 fue establecido en 1996 por investigadores de 34 universidades bajo el auspicio de EDUCOM (renombrado después a EDUCAUSE), y fue organizada formalmente como la Corporación Universitaria para el Desarrollo de Internet Avanzado (UCAID) en 1997. Posteriormente su nombre fue modificado a Internet2. Internet2 es una marca registrada. La sede central del Consorcio Internet2 se encuentra ubicada en Michigan, Estados Unidos, y posee oficinas en Washington D.C.
La comunidad Internet2, en colaboración con Qwest, construyeron la primer red de Internet2, llamada Abilene, en 1998, y fue un inversor inicial en el proyecto National LambdaRail (NLR). Entre 2004 y 2006, Internet2 y NLR mantuvieron discusiones extensivas sobre una posible fusión. Las conversaciones fueron suspendidas definitivamente en 2007.
En 2006, Internet2 anunció un contrato de colaboración con Level 3 Communications para lanzar una nueva red de alcance nacional, aumentando la capacidad de 10 Gbits/s a 100 Gbits/s. En octubre de 2007, Internet2 retiró oficialmente a Abilene y actualmente se refiere a su red de alta velocidad como la Red Internet2.
6.3 OBJETIVOS
Internet2 provee a la comunidad educativa e investigadora de Estados Unidos con una red que satisface sus requisitos intensivos de ancho de banda. La red en sí misma es un dinámica, robusta y costo-eficiente combinación entre red óptica y de paquetes. Provee un enlace troncal de red de unos 100 GBits/s a más de 210 instituciones educativas, 70 corporaciones y 45 agencias gubernamentales y organizaciones sin fines de lucro en los EE.UU. Los objetivos de Internet2 son: • Desarrollar y mantener una red vanguardia . • Explotar completamente las capacidades de conexiones de banda ancha a través del uso de aplicaciones de nueva generación. • Transferir nuevos servicios de red y aplicaciones a todos los niveles de uso educacional, y eventualmente a toda la comunidad de internet. El uso de la red varía desde aplicaciones colaborativas, experimentos de investigación distribuidos y análisis de datos basados en grillas o matrices hasta redes sociales. Algunas de estas aplicaciones se encuentran en diferentes niveles de comercialización, como IPv6, middleware open-source para acceso seguro a redes, VPN’s de capa 2 y redes de circuitos dinámicos.
6.4 CARACTERÍSTICAS
Las velocidades mínimas son:
622 Mbit/s para un miembro de I2 (universidades y socios).
50 Mbit/s para un usuario particular.
La enseñanza, el aprendizaje e investigación, en colaboración, pueden requerir interconexión y altas conexiones de banda ancha en tiempo real. La infraestructura básica de Internet2 soporta esas aplicaciones, conocidas como Learning–ware. También han desarrollado otras aplicaciones para entornos de alta velocidad como los laboratoriosvirtuales (LAV), la telemedicina y la teleinmersión.
Para conectarse a Internet2 necesitas que tu red de alta velocidad esté conectada a un GigaPop de Internet2; también puedes conectarte a través de Internet usando unbackbone. Aunque existen muchas similitudes con Internet, la nueva red no penetrante.
El uso de Internet como herramienta educativa y de investigación científica ha crecido aceleradamente debido a la ventaja que representa el poder acceder a grandes bases de datos, la capacidad de compartir información entre colegas y facilitar la coordinación de grupos de trabajo.
Internet 2 es una red de cómputo con capacidades avanzadas separada de la Internet comercial actual. Su origen se basa en el espíritu de colaboración entre las universidades del país y su objetivo principal es desarrollar la próxima generación de aplicaciones telemáticas para facilitar las misiones de investigación y educación de las universidades, además de ayudar en la formación de personal capacitado en el uso y manejo de redes avanzadas de cómputo.
Algunas de las aplicaciones en desarrollo dentro del proyecto de Internet 2 a nivel internacional son: telemedicina, bibliotecas digitales, laboratorios virtuales, manipulación a distancia y visualización de modelos 3D; aplicaciones todas ellas que no serían posibles de desarrollar con la tecnología del Internet de hoy.
En los Estados Unidos el proyecto que lidera este desarrollo es Internet2, en Canadá el proyecto CA*net3, en Europa los proyectos TEN-155 y GEANT, y en Asia el proyecto APAN. Adicionalmente, todas estas redes están conectadas entre si, formando una gran red avanzada de alta velocidad de alcance mundial.
En Latinoamérica, las redes académicas de México CUDI, Brasil, Argentina RETINA y Chile REUNA ya se han integrado a Internet2.
El proyecto Internet2 es administrado por la UCAID (Corporación Universitaria para el Desarrollo Avanzado de Internet) y es un esfuerzo de colaboración para desarrollar tecnología y aplicaciones avanzadas en Internet, vitales para las misiones de investigación y educación de las instituciones de educación superior.
El backbone de Internet2 (la red Abilene y la red vBNS) tiene velocidades que superan los 2 Gbit/s, y las conexiones de las universidades a este backbone varían entre 45 Mbit/s y 622 Mbit/s.
6.5 MIEMBROS DE INTERNET2
Actualmente Internet2 tiene como miembros a más de trescientas instituciones, incluyendo universidades líderes de los Estados Unidos, corporaciones, agencias de investigación de gobierno, y organizaciones de red sin fines de lucro.
Internet2 tiene hasta esta fecha doscientos doce universidades estadounidenses como miembros, incluyendo las diez mejores de este país en el año 2008 según el sitio web UsNews.com, entre las que figuran Princeton University, Harvard University, Yale University, Stanford University, University of Pennsylvania, California Institute of Technology (Caltech), Massachusets Institute of Technology, Duke University, Columbia University y University of Chicago. Se debe mencionar que aunque hay muchas grandes y excelentes universidades fuera de los Estados Unidos, ninguna de ellas es miembro de Internet2 porque de momento no es posible, pues en los términos de afiliación de Internet2 existe la siguiente cláusula:"Universidades no localizadas en los Estados Unidos no podrían llegar a ser miembros de Internet2. En vez de eso, Internet2 ha desarrollado relaciones con Socios Internacionales quienes están también dedicados a las redes avanzadas. En algunos casos, los Socios Internacionales podrían operar una red de alto desempeño por la cual una Universidad Internacional se podría conectar. Muchas organizaciones Socios Internacionales se despliegan con la red Abilene."Sin embargo, a través de acuerdos mutuos con organizaciones similares alrededor del mundo, Internet2 está estableciendo lazos que ayudarán a asegurar la continua interoperabilidad global de redes avanzadas, y habilita la colaboración entre investigadores, facultades y estudiantes de los Estados Unidos, con sus similares en otros lugares.Además de las doscientas doce universidades, Internet2 también cuenta con otros miembros, entre los que aparecen prestigiosas organizaciones como Cisco Systems, HP, IBM Corporation, Microsoft Research, EBSCO Information Services, Google, Red Hat, Inc., Verizon Business, Warner Bros., NASA Goddard Space Flight Center, NASA Marshall Space Flight Center, National Geographic, The World Bank, entre otros.
El resumen de miembros y socios de Internet2 hasta julio de 2008 se muestra a continuación:
· 212 Universidades Miembro estadounidenses· 11 Socios Corporativos· 9 Patrocinadores Corporativos· 31 Miembros Corporativos· 45 Miembros Afiliados· 31 Redes de Educación y Educativas Miembro· 58 Socios Internacionales
CAPITULO VII
Hackers y virus del Internet
7.1 HAKER
Todos hemos escuchado el término "Hacker" alguna vez, los que contamos con un computador en casa, el sólo hecho de escuchar el término nos asusta, lo relacionamos con virus y espías peligrosos que pueden causar graves daños a nuestro ordenador.En este informe he querido presentar brevemente la definición de hacker y lo que éste término lleva consigo, que es bastante más de lo que podría imaginar al comenzar esta investigación.
El término "hacker" provendría de hack, palabra utilizada en EEUU para describir el sonido que hacían los técnicos de las empresas telefónicas al golpear los aparatos para que funcionaran.
Un hacker denominado "sombrero blanco" es un experto en una o varias ramas de la computación y telecomunicación: redes de comunicación, programación, sistemas operativos, hardware. Su función consiste en buscar defectos, puertas traseras y mejorar la seguridad del software, así como prevenir posibles errores futuros.
También existen los llamados hackers "sombreros negros" que utilizan todo el conocimiento que poseen, con fines maliciosos, antimorales o incluso bélicos, como intrusión de redes, acceso ilegal a sistemas gubernamentales, robo de información y muchos más crímenes informaticos.
También es hacker el que distribuye material ilegal o moralmente inaceptable, como fabricación de virus, herramientas de hackeo y elementos de anarquismo como la distribución de manuales para fabricar elementos explosivos caseros o la clásica tortura china, el hacker se distingue del pirata informático por sus valores morales, sociales y políticos que por lo general enfrentados al mundo capitalista
En una línea semejante se encuentran los crackers. Ellos se ocupan de piratear programas, penetrar a sistemas privados y en ocasiones, de destruirlos. Además, se muestra como un grupo experto en la inserción de poderosos virus computacionales en la red, con la idea de sabotear al máximo los grandes sistemas. Como ejemplo, baste decir que en los ochenta una plaga de virus transmitidos por "computólogos" búlgaros a través de discos de software, causó daños en cientos de computadoras personales.
Aunque en muchas ocasiones se piensa que crackers y hackers son lo mismo, en realidad existen ciertas distinciones, aunque resulta difícil dibujar claramente la línea divisoria.
A lo difícil que es diferenciar las actividades de crackers y hackers, muchas veces a éstos últimos se les atribuye actividades delictivas en la red, del robo y/o destrucción de información. Sin embargo, los hackers se han planteado una ética que pretende liberar la información, antes que realizar acciones ilícitas.
El término hacker, en conclusión, se utiliza para identificar a los que únicamente acceden a un sistema protegido como si se tratara de un reto personal, sin intentar causar daños.
7.1.1 LA COMUNIDAD HACKER
La comunidad hacker empieza a formarse a comienzos de los años 60 dentro de los laboratorios de Ciencias de la Computación y de Inteligencia Artificial de las universidades americanas más prestigiosas. Parece ser que los primeros que utilizaron el término hacker en su sentido actual fueron los investigadores del Laboratorio de Inteligencia Artificial del Massachusets Institute of Technology (MIT).
El establecimiento en 1969 de ARPANET --la primera red transcontinental de computadores-- favoreció el rápido desarrollo de la comunidad hacker. Los primeros productos de su folclore --las primeras compilaciones de jerga hacker, los primeros escritos satíricos y las primeras reflexiones acerca de la ética hacker-- se distribuyeron extensamente por ARPANET a comienzos de los años 70. A finales de esa década, los hackers Ken Thompson y Dennis Ritchie desarrollaron el sistema operativo Unix y el lenguaje C. Durante la década de los 80, la comunidad hacker adoptó Unix como su sistema operativo y, aprovechando las capacidades que proporcionaba el nuevo sistema para interconectar computadores, desarrolló una redde computadores, USENET, aún más extensa que la original ARPANET.
USENET, como antes ARPANET, contribuyó decisivamente al desarrollo de la comunidad hacker, al permitir el rápido y fácil intercambio de información, noticias y productos entre sus miembros. Precisamente en uno de los boletines de noticias de USENET, net.unix-wizards, en septiembre de 1983, se anunció bajo el título ``Nueva implementación de Unix'' la primera implementación libre de Unix:
El próximo Día de Acción de Gracias comenzaré a escribir un sistema operativo compatible con Unix denominado GNU (por GNU No es Unix), y lo distribuiré libremente a todo aquel que quiera utilizarlo. Se necesitan colaboradores que dediquen tiempo, dinero, programas y equipos a este proyecto.El mensaje lo firmaba Richard Stallman, creador del editor de textos EMACS --uno de los favoritos entre los hackers--, y miembro entonces del Laboratorio de Inteligencia Artificial del MIT. Aunque la nueva implementación de Unix anunciada por Stallman no estuvo disponible hasta 1996, sus ideas acerca del carácter no propietario o libre del software configuraron laideología hacker hasta mediados de los años 90. Para
Stallman, software libre significa que el usuario tiene:la libertad para ejecutar el programa con cualquier fin;
la libertad para analizar como funciona el programa y adaptarlo a sus necesidades.
la libertad para distribuir copias del programa con el fin de ayudar a sus colegas
la libertad para mejorar el programa y publicar sus resultados de forma que toda la comunidad se pueda beneficiar de sus innovaciones.
A comienzos de los años 90, Linus Torvalds, un estudiante de la Universidad de Helsinki, decidió desarrollar una versión libre de Unix para su computador personal. Como Stallman había hecho en 1983, Torvalds anunció su proyectó utilizando los boletines de noticias de USENET.
Aunque los primeros computadores personales (PC) se comercializaron en 1975, la comunidad hacker no les prestó atención hasta comienzos de los 90, cuando aparecieron los primeros computadores personales con prestaciones equiparables a las estaciones de trabajo Unix de los años 80, pero a un precio sustancialmente inferior. Sin embargo, faltaba por desarrollar versiones de Unix para los computadores personales a un precio igualmente asequible. La propuesta de Torvalds recibió un apoyo entusiasta dentro de la comunidad hacker y, a finales de 1993, se empezaban a distribuir libremente las primeras versiones de Linux. Desde entonces, el desarrollo de Linux ha venido centrando la actividad de la comunidad hacker.Por esto se considera a los Hackers creadores de Linux y que sin su cooperación no existirían internet ni World Wide Web.
7.1.2 LA ÉTICA HACKER
La idea de ética hacker es formulada por vez primera en el libro de Steven Levy publicado en 1984 "Hacker: Heroes of de Computer Revolution",en donde señala que:
El acceso a las computadoras debe ser ilimitado y total. Toda la información debe ser libre Es necesario promover la descentralización Los hackers deben ser juzgados por su labor, no por su raza, edad o
posición. Su labor se centrará en el logro del libre acceso a la información.
Los hackers forman una élite de la informática que tiene la plena convicción de que toda la información debe ser libre y por lo tanto, las redes también deben serlo.
Una de sus actividades más comunes es demostrar la factibilidad de invadir sistemas de cómputo, para demostrar su fragilidad.
Por ejemplo, los hackers alemanes del Chaos Computer Club de Hamburgo penetraron al sistema hacendario de la localidad, para retirar algunos marcos. Al día siguiente los devolvieron e informaron sobre las fallas del sistema. Por situaciones como ésta, los hackers se han dado a conocer como los Robin Hood de la cibercultura.Ellos consideran que el ciberespacio es controlado por grandes multinacionales de las comunicaciones y de la informática, con base en el ejercicio de políticas antisociales, pues afirman que estas empresas mantienen sus equipos más avanzados lejos de la mayoría de la gente. Piensan que otro tipo de apropiación tecnológica es la ejercida por las compañías telefónicas, quiénes cobran precios muy altos por sus servicios.
V. ¿CÓMO PIENSA UN HACKER?1.El mundo está lleno de problemas fascinantes que esperan ser resueltos2. Nadie debería tener que resolver un problema dos veces3. Lo aburrido y rutinario es malo4. La libertad es buena5. La actitud no es sustituta para la habilidadVI. MANDAMIENTOS DE UN HACKER· Nunca dañes algo intencionadamente. Lo único que conseguirás será buscarte problemas.· Modifica sólo lo estrictamente necesario para entrar y evitar ser localizado, o para poder acceder otras veces.· No hackees nunca por venganza ni por intereses personales o económicos.· No hackees sistemas pobres que no puedan reponerse de un ataque fuerte. Ni tampoco sistemas ricos o grandes que puedan permitirse gastar dinero y tiempo en buscarte.· Odia a Telefónica pero no te metas con ella.· No hackees ordenadores del gobierno. No olvides que la policía trabaja para ellos.· No comentes con nadie tus hazañas (los más grandes hackers de la historia han sido cazados debido a las confesiones de sus novias)· Cuando hables por Internet, procura ser lo más discreto posible. Todo lo que digas quedará almacenado.· Sé paranoico. No dejes ningún dato que pueda relacionarse contigo.· Estudia mucho antes de lanzarte a la práctica. Nunca dejes de estudiar y de aprender nuevas cosas.
VII. TIPOS DE ATAQUESLos métodos de ataque descritos a continuación están divididos en categorías generales que pueden estar relacionadas entre sí, ya que el uso de un método en una categoría permite el uso de otros métodos en otras. Por ejemplo: después de hackear un password, un intruso realiza un login como usuario legítimo para navegar entre los archivos y explotar vulnerabilidades del sistema. Eventualmente también, el atacante puede adquirir derechos a lugares que le permitan dejar un virus u otras bombas lógicas para paralizar todo un sistema antes de huir.EAVESDROPPING Y PACKET SNIFFINGMuchas redes son vulnerables al eavesdropping (escuchar secretamente,), o la pasiva intercepción (sin modificación) del tráfico de red. En Internet esto es realizado por packet sniffers, que son programas que monitorean los paquetes de red que están direccionados a la computadora donde están instalados. El sniffer puede ser colocado tanto en una estación de trabajo conectada a red,
como a un equipo router o a un gateway de Internet, y esto puede ser realizado por un usuario con legítimo acceso, o por un intruso que ha ingresado por otras vías. Existen kits disponibles para facilitar su instalación.Este método es muy utilizado para capturar logins, IP‘s y passwords de usuarios, que generalmente viajan claros (sin encriptar) al ingresar a sistemas de acceso remoto (RAS). También son utilizados para capturar números de tarjetas de crédito y direcciones de e-mail entrantes y salientes. SNOOPING Y DOWNLOADINGLos ataques de esta categoría tienen el mismo objetivo que el sniffing, obtener la información sin modificarla. Sin embargo los métodos son diferentes. Además de interceptar el tráfico de red, el atacante ingresa a los documentos, mensajes de e-mail y otra información guardada, realizando en la mayoría de los casos un downloading de esa información a su propiacomputadora.El Snooping puede ser realizado por simple curiosidad, pero también es realizado con fines de espionaje y robo de información o software. TAMPERING O DATA DIDDLINGEsta categoría se refiere a la modificación desautorizada a los datos, o al software instalado en un sistema, incluyendo borrado de archivos. Este tipo de ataques son particularmente serios cuando el que lo realiza ha obtenido derechos de administrador o supervisor, con la capacidad de disparar cualquier comando y poder alterar o borrar cualquier información que puede incluso terminar en la baja total del sistema en forma deliberada. O aún si no hubo intenciones de ello, el administrador posiblemente necesite dar de baja por horas o días hasta chequear y tratar de recuperar aquella información que ha sido alterada o borrada. Como siempre, esto puede ser realizado por insiders o outsiders, generalmente con el propósito defraude o dejar fuera de servicio un competidor.SPOOFING
Esta técnica es utilizada para actuar en nombre de otros usuarios, usualmente para realizar tareas de snoofing o tampering. Una forma común de spoofing, es conseguir el nombre y password de un usuario legítimo para, una vez ingresado al sistema, tomar acciones en nombre de él, como puede ser el envío de falsos e-mails.El intruso usualmente utiliza un sistema para obtener información e ingresar en otro, y luego utiliza este para entrar en otro, y en otro. Este proceso, llamado Looping, tiene la finalidad de evaporar la identificación y la ubicación del atacante. El envío de falsos e-mails es otra forma de spoofing permitida por las redes. Aquí el atacante envía a nombre de otra persona e-mails con otros objetivos. Tal fue el caso de una universidad en USA que en 1998 debió reprogramar una fecha completa de exámenes ya que alguien en nombre de la secretaría había cancelado la fecha verdadera y enviado el mensaje a toda la nómina (163 estudiantes).JAMMING o FLOODINGEste tipo de ataques desactivan o saturan los recursos del sistema. Por ejemplo, un atacante puede consumir toda la memoria o espacio en disco disponible, así como enviar tanto tráfico a la red que nadie más puede utilizarla.Muchos ISPs (proveedores de Internet) han sufrido bajas temporales del servicio por ataques que explotan el protocolo TCP. Aquí el atacante satura el sistema con mensajes que requieren establecer conexión. Sin embargo, en vez de proveer la dirección IP del emisor, el mensaje contiene falsas direcciones IP (o sea que este ataque involucra también spoofing). El sistema responde al
mensaje, pero como no recibe respuesta, acumula buffers con información de las conexiones abiertas, no dejando lugar a las conexiones legítimas.Muchos servidores de Internet han sido dados de baja por el "ping de la muerte", una versión-trampa del comando ping. Mientras que el ping normal simplemente verifica si un sistema esta enlazado a la red, el ping de la muerte causa el reinicio o el apagado instantáneo del equipo.Otra acción común es la de enviar millares de e-mails sin sentido a todos los usuarios posibles en forma continua, saturando los distintos servidores de destino. CABALLOS DE TROYAConsiste en introducir dentro de un programa una rutina o conjunto de instrucciones, por supuesto no autorizadas y que la persona que lo ejecuta no conoce, para que dicho programa actúe de una forma diferente a como estaba previsto (Por ej. Formatear el disco duro, modificar un fichero, sacar un mensaje, etc..).BOMBAS LOGICASEste suele ser el procedimiento de sabotaje mas comúnmente utilizado por empleados descontentos. Consiste en introducir un programa o rutina que en una fecha determinada destruirá, modificara la información o provocara el cuelgue del sistema.INGENIERA SOCIALBásicamente convencer a la gente de que haga lo que en realidad no debería. Por ejemplo llamar a un usuario haciéndose pasar por administrador del sistema y requerirle la password con alguna excusa convincente. Esto es común cuando en el Centro de Computo los administradores son amigos o conocidos.DIFUSION DE VIRUSSi bien es un ataque de tipo tampering, difiere de este porque puede ser ingresado al sistema por un dispositivo externo o través de la red (e-mails u otros protocolos) sin intervención directa del atacante. Dado que el virus tiene como característica propia su autoreproducción, no necesita de mucha ayuda para propagarse a traves de una LAN o WAN rápidamente, si es que no esta instalada una protección antivirus en los servidores, estaciones de trabajo, y los servidores de e-mail.Existen distintos tipos de virus, como aquellos que infectan archivos ejecutables (.exe, .com, .bat, etc.) y los sectores de inicio de discos y diskettes, pero aquellos que causan en estos tiempos mas problemas son los macro-virus, que están ocultos en simples documentos o planilla de cálculo, aplicaciones que utiliza cualquier usuario de PC, y cuya difusión se potenciacon la posibilidad de su transmisión de un continente a otro a través de cualquier red o Internet. Y además son multiplataforma, es decir, no están atados a un sistema operativo en particular, ya que un documento de MS-Word puede ser procesado tanto en un equipo Windows 3.x/95/98 , como en una Macintosh u otras.OBTENCIÓN DE PASSWORDS, CÓDIGOS Y CLAVESEste método (usualmente denominado cracking), comprende la obtención "por fuerza bruta" de aquellas claves que permiten ingresar a servidores, aplicaciones, cuentas, etc. Muchos passwords de acceso son obtenidos fácilmente porque involucran el nombre u otro dato familiar del usuario, que además nunca lo cambia. En este caso el ataque se simplifica e involucra algún tiempo de prueba y error. Otras veces se realizan ataques sistemáticos (incluso con varias computadoras a la vez) con la ayuda de programas especiales y "diccionarios" que prueban millones de posibles claves hasta encontrar el password correcto. Es muy frecuente crackear un password explotando
agujeros en los algoritmos de encriptación utilizados, o en la administración de las claves por parte la empresa.XI.CONCLUSIÓN.Los hackers son personas con grandes habilidades informáticas, que exigen que la red (Internet) sea de uso público, sin restricciones de pagos por información. Lamentablemente esto choca con el capitalismo imperante en nuestros tiempos, pasa a ser una idea casi surrealista la de tener una red de libre acceso sin ningún costo, más para las grandes empresas que proporcionan los servicios de conexión y acceso a datos las cuales jamás permitirían que esto sucediera ya que se quedarían sin la mayoría de sus ingresos.Así, me parece una idea bastante acertada la que compara a los actuales hackers con el personaje Robin Hood, por buscar un fin bastante ilusorio para nuestros días.Debo mencionar si a los que, siendo personas con grandes conocimientos, los usan en menoscabo de simples usuarios de la red, perjudicándolos en su acceso a la red, estas personas si son ciber-criminales, por hacerlo solo buscando una satisfacción propia y egoísta.
Virus
Definición
Es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en una computadora, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos. Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces elcontrol de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se
añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.
El primer virus que atacó a una máquina IBM Serie 360 (y reconocido como tal), fue llamado Creeper, creado en 1972 por Robert Thomas Morris. Este programa emitía periódicamente en la pantalla el mensaje: "I'm a creeper... catch me if you can!" (Soy una enredadera, agárrenme si pueden). Para eliminar este problema se creó el primer programa antivirusdenominado Reaper (segadora). Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Sus inicios fueron en los laboratorios de Bell Computers. Tres programadores desarrollaron un juego llamado Core Wars, el cual consistía en ocupar toda la memoria RAM del equipo contrario en el menor tiempo posible. Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de diskettes hasta los que se adjuntan en un correo electrónico y se ocultan en un formato de imagen comprimida con la extensión JPG.
CaracterísticasDado que una característica de los virus es el consumo de recursos, los virus ocasionan problemas tales como: pérdida de productividad, cortes en los sistemas de información o daños a nivel de datos. Una de las características es la posibilidad que tienen de diseminarse por medio de replicas y copias. Las redes en la actualidad ayudan a dicha propagación cuando éstas no tienen la seguridad adecuada. Otros daños que los virus producen a los sistemas informáticos son la pérdida de información, horas de parada productiva, tiempo de reinstalación, etc. Hay que tener en cuenta que cada virus plantea una situación diferente.Algunas de las características de estos agentes víricos:
Son programas de computadora: En informática programa es sinónimo de Software, es decir el conjunto de instrucciones que ejecuta un ordenador o computadora.
Es dañino: Un virus informático siempre causa daños en el sistema que infecta, pero vale aclarar que el hacer daño no significa que vaya a romper algo. El daño puede ser implícito cuando lo que se busca es destruir o alterar información o pueden ser situaciones con efectos negativos para la computadora, como consumo de memoria principal, tiempo deprocesador.
Es auto reproductor: La característica más importante de este tipo de programas es la de crear copias de sí mismos, cosa que ningún otro programa convencional hace. Imaginemos que si todos tuvieran esta capacidad podríamos instalar un procesador de textos y un par de días más tarde tendríamos tres de ellos o más.
Pueden ser Polimórficos: Algunos virus tienen la capacidad de modificar su código, lo que significa que un virus puede tener múltiples variantes similares, haciéndolos difíciles de detectar.
Pueden permanecer en la computadora aún si el disco duro es formateado: Si bien son muy pocos los casos, algunos virus tienen la capacidad de infectar diferentes porciones de la computadora como el CMOS o alojarse en el MBR (sector de buteo)
Tipos o ClasificaciónExisten fundamentalmente dos tipos de virus:Aquellos que infectan archivos. A su vez, éstos se clasifican en:
Virus de acción directa. En el momento en el que se ejecutan, infectan a otros programas.
Virus residentes. Al ser ejecutados, se instalan en la memoria de la computadora. Infectan a los demás programas a medida que se accede a ello
Un virus es simplemente un programa, una secuencia de instrucciones y rutinas creadas con el único objetivo de alterar el correcto funcionamiento del sistema y, en la inmensa mayoría de los casos, corromper o destruir parte o la totalidad de los datos almacenados en el disco. De todas formas, dentro del término "virus informático" se suelen englobar varios tipos de programas, por lo que a continuación se da un pequeño repaso a cada uno de ellos poniendo de manifiesto sus diferencias
Dentro del término "virus informático" se suelen englobar varios tipos de programas, por lo que a continuación se da un pequeño repaso a cada uno de ellos poniendo de manifiesto sus diferencias.
Gusanos: son programas que se reproducen a sí mismos y no requieren de un programa o archivo anfitrión.Virus Puros: Un verdadero virus tiene como características más importantes la capacidad de copiarse a sí mismo en soportes diferentes al que se encontraba originalmente, y por supuesto hacerlo con el mayor sigilo posible y de forma transparente al usuarioBombas de Tiempo: son virus programados para entrar en acción en un momento predeterminado, una hora o fecha en particular.Caballos de Troya: son virus que se introducen al sistema bajo una apariencia totalmente diferente a la de su objetivo final, como el Caballo de Troya original. Al cabo de algún tiempo se activan y muestran sus verdaderas intenciones.