trabajo internet

65
INSTITUTO SUPERIOR TECNOLÓGICO IDAT REDES Y COMUNICACIONES “LA INTERNET” SECCION : 10201 PROFESOR : CESAR PASACHE CARRANZA AUTOR : AGUIRRE ASPILCUETA RUTH CARAHUANCO VILCA SAMUEL ESPINOZA PALACIOS RENATO HUALLANCA GOMEZ ANDRES ORJEDA PEREZ CHRISTIAN QUISPE HUAMANI ANTONIO SALAZAR PISFIL LUIS

Upload: avwnash

Post on 19-Dec-2015

6 views

Category:

Documents


1 download

DESCRIPTION

trabajos

TRANSCRIPT

INSTITUTO SUPERIOR TECNOLÓGICO IDAT

REDES Y COMUNICACIONES

“LA INTERNET”

SECCION : 10201

PROFESOR : CESAR PASACHE CARRANZA

AUTOR : AGUIRRE ASPILCUETA RUTH

CARAHUANCO VILCA SAMUEL

ESPINOZA PALACIOS RENATO

HUALLANCA GOMEZ ANDRES

ORJEDA PEREZ CHRISTIAN

QUISPE HUAMANI ANTONIO

SALAZAR PISFIL LUIS

Lima, 18 de diciembre del 2014

El presente trabajo se lo dedicamos a nuestros seres queridos que nos han apoyado en nuestra carrera profesional y que siguen creyendo en nosotros para darles alegrías y satisfacciones.

El Grupo

SUMARIO

En el presente trabajo de investigación titulado la Internet se ha dividido según

las investigaciones en siete capítulos: En el primero se habla de los inicios del

Internet, en el segundo capítulo mencionaremos información sobre el Arpanet,

el tercer capítulo nos informa sobre la Intranet, en el cuarto capítulo

informamos sobre el Internet, en el quinto capitulo conoceremos los

navegadores, buscadores y protocolos de internet, en el sexto capítulo se dará

a conocer sobre el Internet2 y finalmente en el último capítulo informaremos

sobre los hackers y virus del internet.

De acuerdo a lo investigado por el grupo hemos podido determinar que la etapa

más importante de la Internet es el capítulo dos el Arpanet ya que si no hubiera

existido no podríamos tener el Internet de hoy en día, y poder tener

conocimiento de la información en todo el mundo.

En conclusión este trabajo de investigación es importante porque hemos

podido incrementar nuestros conocimientos con respecto al Internet y sabemos

que esta información sirve de antecedente para quienes en un futuro deseen

actualizar este trabajo.

INDICE

CAPITULO I

Historia del Internet

1.1 Introducción

1.2 Historia

1.3 Cronología del Internet

1.4 Evolución del Internet en la historia

CAPITULO II

Arpanet

2.1 Introducción

2.2 Inicios

2.3 Creación

2.3.1 Crecimiento y evolución

2.4 Tecnología

2.4.1 Software

2.5 Las aplicaciones de red

2.6 Protección de contraseña

2.7 El final de ARPANET

CAPITULO III

La Intranet

3.1 Introducción

3.2 Intranet

3.3 E-mail dentro de una Intranet

3.4 Seguridad de la Intranet

3.4.1 Encriptación

3.5 Ventajas de implementar una Intranet

3.6 Importancia

3.7 Ejemplo de Intranet

3.8 Tipos de Intranet

CAPITULO IV

Internet

4.1 Internet

4.2 Servicios de Internet

4.2.1 World Wide Web

4.2.2 Correo Electronico

4.2.3 Chat, messenger

4.2.4 Telefonia

4.2.5 Video conferencia

4.3 Recursos

4.3.1 Banners, Cookies, enlaces

4.4 Agentes y Brokers

4.5 Firewall

CAPITULO V

Navegadores, buscadores, protocolos y proveedores de Internet

CAPITULO VI

Internet 2

6.1 Introducción

6.2 Historia

6.3 Objetivos

6.4 Características

6.5 Miembros del Interent2

CAPITULO VII

Hackers y virus del Internet

7.1 Hacker

7.1.1 La Comunidad Hacker

7.1.2 Ética de un Hacker

7.1.3 ¿Cómo piensa un Hacker?

7.1.4 Tipos de Ataques

7.2 Virus

7.2.1 Características

7.2.2 Tipos o Clasificación

CAPITULO I

Historia del Internet

1.1 INTRODUCCION

Se remonta al temprano desarrollo de las redes de comunicación. La

idea de una red de ordenadores diseñada para permitir la comunicación

general entre usuarios de varias computadoras sea tanto desarrollos

tecnológicos como la fusión de la infraestructura de la red ya existente y

los sistemas de telecomunicaciones. La primera descripción

documentada acerca de las interacciones sociales que podrían ser

propiciadas a través del networking (trabajo en red) está contenida en

una serie de memorandos escritos por J.C.R. Licklider, del

Massachusetts Institute of Technology, en agosto de 1962, en los cuales

Licklider discute sobre su concepto de Galactic Network (Red Galáctica).

Las más antiguas versiones de estas ideas aparecieron a finales de los

años cincuenta. Implementaciones prácticas de estos conceptos

empezaron a finales de los ochenta y a lo largo de los noventa. En la

década de 1980, tecnologías que reconoceríamos como las bases de la

moderna Internet, empezaron a expandirse por todo el mundo. En los

noventa se introdujo la World Wide Web (WWW), que se hizo común.

La infraestructura de Internet se esparció por el mundo, para crear la

moderna red mundial de computadoras que hoy conocemos. Atravesó

los países occidentales e intentó una penetración en los países en

desarrollo, creando un acceso mundial a información y comunicación sin

precedentes, pero también una brecha digital en el acceso a esta nueva

infraestructura. Internet también alteró la economía del mundo entero,

incluyendo las implicaciones económicas de la burbuja de las .com.

Un método de conectar computadoras, prevalente sobre los demás, se

basaba en el método de la computadora central o unidad principal, que

simplemente consistía en permitir a sus terminales conectarse a través

de largas líneas alquiladas. Este método se usaba en los años cincuenta

por el Proyecto RAND para apoyar a investigadores como Herbert

Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo

el continente con otros investigadores de Santa Mónica

(California) trabajando en demostración automática de

teoremas e inteligencia artificial.

Un pionero fundamental en lo que se refiere a una red mundial, J.C.R.

Licklider, comprendió la necesidad de una red mundial, según consta en

su documento de enero,1960, Man-Computer Symbiosis (Simbiosis

Hombre-Computadora).

"una red de muchos ordenadores, conectados mediante líneas de

comunicación de banda ancha" las cuales proporcionan "las funciones

que existen hoy en día de las bibliotecas junto con anticipados avances

en el guardado y adquisición de información y [otras] funciones

simbióticas" J.C.R Licklider2

En octubre de 1962, Licklider fue nombrado jefe de la oficina de

procesado de información DARPA, y empezó a formar un grupo informal

dentro del DARPA del Departamento de Defensa de los Estados

Unidos para investigaciones sobre ordenadores más avanzadas. Como

parte del papel de la oficina de procesado de información, se instalaron

tres terminales de redes: una para la System Development

Corporation en Santa Mónica, otra para el Proyecto Genie en

la Universidad de California (Berkeley)y otra para el proyecto Multics en

el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de

redes se haría evidente por los problemas que esto causó.

"Para cada una de estas tres terminales, tenía tres diferentes juegos de

comandos de usuario. Por tanto, si estaba hablando en red con alguien

en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el

M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y

registrarme en la otra terminal para contactar con él.

Dije, es obvio lo que hay que hacer: si tienes esas tres terminales,

debería haber una terminal que fuese a donde sea que quisieras ir y en

donde tengas interactividad. Esa idea es el ARPANet."

Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a

Communications Device" (El Ordenador como un Dispositivo de

Comunicación), en una entrevista con el New York Times 3

Como principal problema en lo que se refiere a las interconexiones está

el conectar diferentes redes físicas para formar una sola red lógica.

Durante los años 60, varios grupos trabajaron en el concepto de la

conmutación de paquetes. Normalmente se considera que Donald

Davies (National Physical Laboratory), Paul Baran (Rand Corporation)

y Leonard Kleinrock (MIT) lo han inventado simultáneamente.4

La conmutación es una técnica que nos sirve para hacer un uso eficiente

de los enlaces físicos en una red de computadoras.

Un Paquete es un grupo de información que consta de dos partes: los

datos propiamente dichos y la información de control, en la que está

especificado la ruta a seguir a lo largo de la red hasta el destino del

paquete. Mil octetos es el límite de longitud superior de los paquetes, y si

la longitud es mayor el mensaje se fragmenta en otros paquetes

Sus orígenes se remontan a la década de 1960, dentro de ARPA

(hoy DARPA) (las siglas en inglés de la Defense Advanced Research

Projects Agency), como respuesta a la necesidad de esta organización

de buscar mejores maneras de usar los computadores de ese entonces,

pero enfrentados al problema de que los principales investigadores y

laboratorios deseaban tener sus propios computadores, lo que no sólo

era más costoso, sino que provocaba una duplicación de esfuerzos y

recursos. El verdadero origen de Internet microsiervos (2005)</ref> Así

nace ARPANet (Advanced Research Projects Agency Network o Red de

la Agencia para los Proyectos de Investigación Avanzada de los Estados

Unidos), que nos legó el trazado de una red inicial de comunicaciones de

alta velocidad a la cual fueron integrándose otras instituciones

gubernamentales y redes académicas durante los años 70.8 9 10

Investigadores, científicos, profesores y estudiantes se beneficiaron de la

comunicación con otras instituciones y colegas en su rama, así como de

la posibilidad de consultar la información disponible en otros centros

académicos y de investigación. De igual manera, disfrutaron de la nueva

habilidad para publicar y hacer disponible a otros la información

generada en sus actividades.11 12

En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el

primer documento sobre la teoría de conmutación de paquetes.

Kleinrock convenció aLawrence Roberts de la factibilidad teórica de las

comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un

gran avance en el camino hacia el trabajo informático en red. El otro

paso fundamental fue hacer dialogar a los ordenadores entre sí. Para

explorar este terreno, en 1965, Roberts conectó una computadora TX2

en Massachusetts con un Q-32 en California a través de una línea

telefónica conmutada de baja velocidad, creando así la primera (aunque

reducida) red de computadoras de área amplia jamás construida.13 14 15

1.2 HISTORIA

Sus orígenes se remontan a la década de 1960, dentro de ARPA

(hoy DARPA) (las siglas en inglés de la Defense Advanced Research

Projects Agency), como respuesta a la necesidad de esta organización

de buscar mejores maneras de usar los computadores de ese entonces,

pero enfrentados al problema de que los principales investigadores y

laboratorios deseaban tener sus propios computadores, lo que no sólo

era más costoso, sino que provocaba una duplicación de esfuerzos y

recursos. El verdadero origen de Internet microsiervos (2005)</ref> Así

nace ARPANet (Advanced Research Projects Agency Network o Red de

la Agencia para los Proyectos de Investigación Avanzada de los Estados

Unidos), que nos legó el trazado de una red inicial de comunicaciones de

alta velocidad a la cual fueron integrándose otras instituciones

gubernamentales y redes académicas durante los años 70.8 9 10

Investigadores, científicos, profesores y estudiantes se beneficiaron de la

comunicación con otras instituciones y colegas en su rama, así como de

la posibilidad de consultar la información disponible en otros centros

académicos y de investigación. De igual manera, disfrutaron de la nueva

habilidad para publicar y hacer disponible a otros la información

generada en sus actividades.11 12

En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el

primer documento sobre la teoría de conmutación de paquetes.

Kleinrock convenció a Lawrence Robertsde la factibilidad teórica de las

comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un

gran avance en el camino hacia el trabajo informático en red. El otro

paso fundamental fue hacer dialogar a los ordenadores entre sí. Para

explorar este terreno, en 1965, Roberts conectó una computadora TX2

en Massachusetts con un Q-32 en California a través de una línea

telefónica conmutada de baja velocidad, creando así la primera (aunque

reducida) red de computadoras de área amplia jamás construida

1.3 CRONOLOGÍA DE LA INTERNET

1969: La primera red interconectada nace el 21 de noviembre de

1969, cuando se crea el primer enlace entre las universidades de

UCLA y Stanford por medio de la línea telefónica conmutada, y

gracias a los trabajos y estudios anteriores de varios científicos y

organizaciones desde 1959 (ver: Arpanet). El mito de que

ARPANET, la primera red, se construyó simplemente para sobrevivir

a ataques nucleares sigue siendo muy popular. Sin embargo, este no

fue el único motivo. Si bien es cierto que ARPANET fue diseñada

para sobrevivir a fallos en la red, la verdadera razón para ello era

que los nodos de conmutación eran poco fiables, tal y como se

atestigua en la siguiente cita:

A raíz de un estudio de RAND, se extendió el falso rumor de que

ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca

fue cierto, solamente un estudio de RAND, no relacionado con

ARPANET, consideraba la guerra nuclear en la transmisión segura

de comunicaciones de voz. Sin embargo, trabajos posteriores

enfatizaron la robustez y capacidad de supervivencia de grandes

porciones de las redes subyacentes. (Internet Society, A Brief History

of the Internet)

1972 : Se realizó la Primera demostración pública de ARPANET, una

nueva red de comunicaciones financiada por la DARPA que

funcionaba de forma distribuida sobre la red telefónica conmutada. El

éxito de ésta nueva arquitectura sirvió para que, en 1973,

la DARPA iniciara un programa de investigación sobre posibles

técnicas para interconectar redes (orientadas al tráfico de paquetes)

de distintas clases. Para este fin, desarrollaron nuevos protocolos de

comunicaciones que permitiesen este intercambio de información de

forma "transparente" para las computadoras conectadas. De la

filosofía del proyecto surgió el nombre de "Internet", que se aplicó al

sistema de redes interconectadas mediante los protocolos TCP e

IP.16

1983 : El 1 de enero, ARPANET cambió el protocolo NCP por

TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el

protocolo TCP/IP y de proporcionar recursos de investigación a

Internet. Por otra parte, se centró la función de asignación de

identificadores en la IANA que, más tarde, delegó parte de sus

funciones en el Internet registry que, a su vez, proporciona servicios

a los DNS.17 18

1986 : La NSF comenzó el desarrollo de NSFNET que se convirtió en

la principal Red en árbol de Internet, complementada después con

las redes NSINET y ESNET, todas ellas en Estados Unidos.

Paralelamente, otras redes troncales en Europa, tanto públicas como

comerciales, junto con las americanas formaban el esqueleto básico

("backbone") de Internet.19 20

1989 : Con la integración de los protocolos OSI en la arquitectura de

Internet, se inició la tendencia actual de permitir no sólo la

interconexión de redes de estructuras dispares, sino también la de

facilitar el uso de distintos protocolos de comunicaciones.

1990: El CERN crea el código HTML y con él el primer cliente World

Wide Web. En la imagen el código HTML con sintaxis coloreada.

En el CERN de Ginebra, un grupo de físicos encabezado por Tim

Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el

mismo equipo construyó el primer cliente Web,

llamado WorldWideWeb (WWW), y el primer servidor web.

A inicios de la década de 1990, con la introducción de nuevas

facilidades de interconexión y herramientas gráficas simples para el

uso de la red, se inició el auge que actualmente le conocemos al

Internet. Este crecimiento masivo trajo consigo el surgimiento de un

nuevo perfil de usuarios, en su mayoría de personas comunes no

ligadas a los sectores académicos, científicos y gubernamentales.

Esto ponía en cuestionamiento la subvención del gobierno

estadounidense al sostenimiento y la administración de la red, así

como la prohibición existente al uso comercial del Internet. Los

hechos se sucedieron rápidamente y para 1993 ya se había

levantado la prohibición al uso comercial del Internet y definido la

transición hacia un modelo de administración no gubernamental que

permitiese, a su vez, la integración de redes y proveedores de

acceso privados. El 30 de abril de 1993 la Web entró al dominio

público, ya que el CERN, entregó las tecnologías de forma gratuita

para que cualquiera pudiera utilizarlas.

2006 : El 3 de enero, Internet alcanzó los mil cien millones de

usuarios. Se prevé que en diez años, la cantidad de navegantes de la

Red aumentará a 2000 millones.

El resultado de todo esto es lo que experimentamos hoy en día: la

transformación de lo que fue una enorme red de comunicaciones

para uso gubernamental, planificada y construida con fondos

estatales, que ha evolucionado en una miríada de redes privadas

interconectadas entre sí. Actualmente la red experimenta cada día la

integración de nuevas redes y usuarios, extendiendo su amplitud y

dominio, al tiempo que surgen nuevos mercados, tecnologías,

instituciones y empresas que aprovechan este nuevo medio, cuyo

potencial apenas comenzamos a descubrir.

1.4 EVOLUCIÓN DE LA INTERNET EN LA HISTORIA

Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet

para algo muy concreto: búsquedas de información, generalmente.

Ahora quizás también, pero sin duda alguna hoy es más probable

perderse en la red, debido al inmenso abanico de posibilidades que

brinda. Hoy en día, la sensación que produce Internet es un ruido, una

serie de interferencias, una explosión de ideas distintas, de personas

diferentes, de pensamientos distintos de tantas posibilidades que, en

ocasiones, puede resultar excesivo.

El crecimiento o, más bien, la incorporación de tantas personas a la red

hace que las calles de lo que en principio era una pequeña ciudad

llamada Internet se conviertan en todo un planeta extremadamente

conectado entre sí, entre todos sus miembros.

El hecho de que Internet haya aumentado tanto implica una mayor

cantidad de relaciones virtuales entre personas. Es posible concluir que

cuando una persona tenga una necesidad de conocimiento no escrito en

libros, puede recurrir a una fuente más acorde a su necesidad, ahora

esta fuente es posible en Internet.

Como toda gran revolución, Internet augura una nueva era de diferentes

métodos de resolución de problemas creados a partir de soluciones

anteriores.

Internet produce algo que todos han sentido alguna vez; produce la

esperanza que es necesaria cuando se quiere conseguir algo. Es un

despertar de intenciones que jamás antes la tecnología había logrado en

la población mundial.

Para algunos usuarios, Internet genera una sensación de cercanía,

empatía, comprensión y, a la vez, de confusión, discusión, lucha y

conflictos que los mismos usuarios pueden considerar como la vida

misma.

La evolución del internet radica en la migración de la versión y uso del

IPv4 a IPv6.

IP es un protocolo que no está orientado a la conexión y no es

completamente seguro en la transmisión de los datos, lo anterior permite

que las conexiones inalámbricas tengan siempre movilidad. Por otro

lado, para mejorar la confiabilidad se usa el protocolo TCP. El protocolo

IP, es la forma en la que se enrutan los paquetes entre las redes. Cada

nodo en cada una de las redes tiene una dirección IP diferente. Para

garantizar un enrutamiento correcto, IP agrega su propio encabezado a

los paquetes. Este proceso se apoya en tablas de enrutamiento que son

actualizadas permanentemente. En caso de que el paquete de datos sea

demasiado grande, el protocolo IP lo fragmenta para poderlo transportar.

La versión que se está ocupando de este protocolo es la 4, donde se

tiene conectividad, pero también ciertas restricciones de espacio. Es por

eso que la grandes empresas proveedoras del servicio de internet

migraran a la versión IPv6.

La nueva versión del protocolo IP Internet Protocol recibe el nombre de

IPv6, aunque es también conocido comúnmente como IPng Internet

Protocol Next Generation. IPv6 ha sido diseñado como un paso evolutivo

desde IPv4, por lo que no representa un cambio radical respecto IPv4.

Las características de IPv4 que trabajan correctamente se han

mantenido en el nuevo protocolo, mientras que se han suprimido

aquéllas que no funcionaban bien. De todos modos, los cambios que se

introducen en esta nueva versión son muchos y de gran importancia

debido a las bondades que ofrecen. A principios de 2010, quedaban

menos del 10% de IPs sin asignar. En la semana del 3 de febrero del

2011, la IANA (Agencia Internacional de Asignación de Números de

Internet, por sus siglas en inglés) entregó el último bloque de direcciones

disponibles (33 millones) a la organización encargada de asignar IPs en

Asia, un mercado que está en auge y no tardará en consumirlas todas.

IPv4 posibilita 4,294,967,296 (232) direcciones de red diferentes, un

número inadecuado para dar una dirección a cada persona del planeta, y

mucho menos a cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6

admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o

340 sextillones de direcciones) —cerca de 6,7 × 1017 (670 mil billones)

de direcciones por cada milímetro cuadrado de la superficie de La Tierra.

Otra vía para la popularización del protocolo es la adopción de este por

parte de instituciones. El Gobierno de los Estados Unidos ordenó el

despliegue de IPv6 por todas sus agencias federales en el año 2008.

CAPITULO II

ARPANET

2.1 INTRODUCCION

La Agencia de Proyectos de Investigación Avanzada de red ( ARPANET ) fue uno de los primeros en funcionamiento del mundo de paquetes de conmutación de redes, la primera red de implementar TCP / IP , y uno de los progenitores de lo que iba a convertirse en el mundial de Internet . La red fue inicialmente financiado por la Agencia de Proyectos de Investigación Avanzada (ARPA, más tarde DARPA ) en el Departamento de Defensa de Estados Unidos para el uso de sus proyectos en universidades y laboratorios de investigación en los EE.UU. La conmutación de paquetes de ARPANET, junto con TCP / IP, se formaría la columna vertebral de cómo funciona Internet. La conmutación de paquetes se basa en conceptos y diseños de ingeniero estadounidense Paul Baran , galés científico Donald Davies [ 1 ] [ 2 ] y Lawrence Roberts del Laboratorio Lincoln . [ 3 ]Los protocolos de comunicación TCP / IP se desarrollaron para ARPANET por científicos de la computación Robert Kahn yVinton Cerf , y también incorporan algunos diseños de Louis Pouzin 

2.2 INICIOS

La red Arpanet nació en mil novecientos sesenta y nueve como resultado de un proyecto de investigación del Departamento de Defensa norteamericano, que trataba de encontrar una vía de comunicación alternativa a la comunicación a través de radio, ya que se preveía que en el caso de una guerra nuclear, temor con fundamento en aquella época, las comunicaciones por radio se verían fuertemente afectadas. 

Arpanet estaba fundamentada en una red compuesta por diferentes ordenadores en la que todos los nodos tenían la misma importancia, consiguiendo así, que en el caso de que alguno de ellos se veía manipulado o quedaba deteriorado, la red no se veía afectada. La clave de Arpanet estaba en que los datos eran enviados mediante diferentes rutas, confluyendo finalmente en un mismo punto de destino. De esta forma, la información se desgranaba en pequeñas unidades que eran enviadas a través de la ruta menos ocupada, para reunirse en el punto de destino. Con ello se conseguía la no existencia de ningún control centralizado, por lo que la seguridad de las comunicaciones aumentaba. 

2.3 CREACION

A mediados de 1968, Taylor había preparado un plan completo para una

red de ordenadores, y, después de la aprobación de ARPA, una solicitud

de cotización (RFQ) fue enviado a 140 posibles licitadores. La mayoría

de las empresas de informática consideraron la propuesta de ARPA-

Taylor como extravagante, y sólo doce ofertas presentadas para

construir la red; de los doce, ARPA sólo cuatro como contratistas de

primer rango considerado. Al final del año, ARPA considera sólo dos

contratistas, y adjudicó el contrato para construir la red de BBN

Technologies , el 7 de abril de 1969. El, siete personas equipo inicial

BBN fueron mucho ayudado por la especificidad técnica de su respuesta

a la petición de oferta ARPA - y así producido rápidamente las

computadoras primer trabajo. Este equipo fue dirigido por Frank

Corazón. La red propuesta-BBN seguido de cerca el plan ARPA de

Taylor: una red compuesta por pequeños ordenadores llamado Interface

Message Processors (PIM: pedido hoy routers ), que funcionó como

pasarelas de interconexión de los recursos locales. En cada sitio, los

PIM realizaron store-and-forward de paquetes funciones de

conmutación, y se interconectan con los módems que estaban

conectados a las líneas arrendadas , inicialmente funcionando a 50 kbit /

segundo . Los ordenadores host fueron conectados a los PIM a través

personalizados de comunicación serial interfaces. El sistema, que

incluye el hardware y el software de conmutación de paquetes, fue

diseñado e instalado en nueve meses. [ 11 ]

Los PIM de primera generación se construyeron inicialmente por BBN

Technologies utilizando un equipo robusto versión del Honeywell DDP-

516 equipo configurado con 24 kB de ampliable la memoria de base , y

una de 16 canales de control directo Multiplex (DMC) acceso directo a

memoria unidad. [ 12 ] La DMC estableció interfaces personalizadas con

cada uno de los equipos host y módems. Además de las lámparas del

panel frontal, el equipo DDP-516 también cuenta con un conjunto

especial de 24 indicadores-lámparas que muestra el estado de los

canales de comunicación de la PMI. Cada IMP podría soportar hasta

cuatro anfitriones locales, y podía comunicarse con hasta seis PIM

remotos a través de líneas arrendadas.La red conecta una computadora

en Utah con tres en California. Más tarde, el Departamento de Defensa

permitió las universidades se unan a la red para compartir recursos de

hardware y software.

2.3.1 CRECIMIENTO Y EVOLUCIÓN 

En marzo de 1970, la ARPANET llegó a la costa este de los

Estados Unidos, cuando un IMP en BBN en Cambridge,

Massachusetts estaba conectado a la red. A partir de entonces, la

ARPANET creció: 9 PIM antes de junio de 1970 y 13 PIM por

diciembre de 1970, entonces de 18 años en septiembre de 1971

(cuando la red incluye 23 universitarios y gubernamentales

anfitriones); 29 PIM de agosto de 1972 y el 40 de septiembre de

1973. Para junio del 1974, hubo 46 PIM, y en julio de 1975, la red

numeradas 57 PIM. Para 1981, el número fue de 213

computadoras centrales, con otro host que se conecta

aproximadamente cada veinte días. [ 17 ]

En 1973 un enlace satelital transatlántica conectado el array

sísmico noruego (NORSAR) a la ARPANET, haciendo Noruega el

primer país fuera de los EE.UU. para ser conectado a la red. Casi

al mismo tiempo que un circuito terrestre añadió un Londres

IMP. [ 20 ]

En 1975, la ARPANET fue declarado "operativa". La Agencia de

Comunicaciones de Defensa tomó el control desde ARPA se

destina a financiar la investigación avanzada. [ 17 ]

En 1983, la ARPANET se dividió con las instalaciones militares

estadounidenses en su propia red Militar ( MILNET ) para las

comunicaciones del Departamento de Defensa no clasificados. La

combinación se llama la Red de Datos de Defensa (DDN). [ 21 ] La

separación de las redes civiles y militares redujeron la ARPANET

113 nodos por 68 nodos.Gateways retransmite el correo

electrónico entre las dos redes. MILNET más tarde se convirtió en

el NIPRNet .

2.4 TECNOLOGÍA 

Soporte para circuitos inter-IMP de hasta 230,4 kbit / s se añadió en

1970, aunque las consideraciones de costo y IMP potencia de

procesamiento significaba esta capacidad no se utiliza activamente.

1971 vio el inicio del uso de la no robustos (y por lo tanto

significativamente más ligero) Honeywell 316 como un IMP. También

puede ser configurado como un procesador Terminal Interface (TIP), que

proporcionó terminal server soporte para hasta 63 ASCII terminales de

serie a través de un controlador de varias líneas en lugar de uno de los

anfitriones. [ 23 ] El 316 muestran un mayor grado de la integración de la

516, lo que hizo menos costoso y más fácil de mantener. El 316 se ha

configurado con 40 kB de memoria de base para un TIP. El tamaño de la

memoria del núcleo más tarde se incrementó, a 32 KB para los PIM, y 56

kB para las extremidades, en 1973.

En 1975, introdujo BBN software IMP se ejecuta en el Pluribus   multi-

procesador . Estos aparecieron en algunos sitios. En 1981, introdujo

BBN IMP software que se ejecuta en su propio producto C / 30

procesador.

En 1983, TCP / IP protocolos reemplazados PNC como protocolo

principal de la ARPANET, y la ARPANET se convirtió entonces en una

subred de principios del Internet.[ 24 ] [ 25 ]

2.4.1 SOFTWARE

El punto de partida para la comunicación host-a-host en la ARPANET en 1969 fue el protocolo de 1822 , que define la transmisión de mensajes a un IMP. [ 31 ] El formato del mensaje fue diseñado para trabajar de forma inequívoca con una amplia gama de arquitecturas de computadora. Un mensaje de 1822 consistió esencialmente en un tipo de mensaje, una dirección de host numérico, y un campo de datos. Para enviar un mensaje de datos a otro host, el host transmisor formatea un mensaje de datos que contiene la dirección del host de destino y el mensaje de datos que se envían y, a continuación, transmite el mensaje a través de la interfaz de 1.822 hardware. El IMP luego entregó el mensaje a su dirección de destino, ya sea por la entrega a un host conectado a nivel local, o mediante la entrega a otro IMP. Cuando el mensaje fue finalmente entregado al host de destino, el IMP receptora transmitirá una Listo para Siguiente mensaje (RFNM) acuse de recibo al envío, de acogida IMP.

A diferencia de los datagramas modernas de Internet, ARPANET fue diseñada para transmitir de forma fiable 1.822 mensajes, y para informar a la computadora host cuando pierde un mensaje; lo contemporáneo IP no es fiable, mientras el TCP es fiable. Sin embargo, el protocolo de 1822 resultó insuficiente para manejar múltiples conexiones entre las diferentes aplicaciones que residen en un equipo host. Este problema se abordó con el Programa de Control de Red (NCP), que proporciona un método estándar para establecer,, enlaces fiables de flujo controlado bidireccional de comunicación entre los diferentes procesos en diferentes equipos host. La interfaz permite PNC software de aplicación para conectarse a través de la ARPANET mediante la implementación de más alto nivel protocolos de comunicación , un ejemplo temprano del protocolo de capasconcepto incorporado al modelo OSI .

En 1983, TCP / IP protocolos reemplazados PNC como protocolo principal de la ARPANET, y la ARPANET se convirtió entonces en un componente de la temprana Internet.

2.5 LAS APLICACIONES DE RED

PNC proporciona un conjunto estándar de servicios de red que podrían

ser compartidos por varias aplicaciones que se ejecutan en un único

equipo host. Esto condujo a la evolución de los protocolos de

aplicación que operaban, más o menos, independientemente del servicio

de red subyacente. Cuando ARPANET emigró a los protocolos de

Internet en 1983, los principales protocolos de aplicación emigraron con

él.

E-mail: En 1971, Ray Tomlinson , de BBN envió la primera red de

correo electrónico ( RFC 524 , RFC 561 ). [ 32 ] En 1973, el correo

electrónico constituida el 75 por ciento del tráfico de ARPANET.

Transferencia de archivos: Para 1973, el Protocolo de Transferencia

de Archivos (FTP) especificación se había definido ( RFC 354 ) y

puesto en práctica, lo que permite la transferencia de archivos más

de la ARPANET.

El tráfico de voz: Los Protocolo de red de voz especificaciones (NVP)

se definieron en 1977 ( RFC 741 ), a continuación, en práctica, pero,

debido a deficiencias técnicas,llamadas de conferencia sobre el

ARPANET nunca funcionó bien; el contemporáneo de Voz sobre

Protocolo de Internet (voz por paquetes) fue a décadas de distancia.

2.6 PROTECCION DE CONTRASEÑAS

El Purdy polinómica algoritmo de control fue desarrollado para

ARPANET para proteger las contraseñas en 1971 a petición de Larry

Roberts, director de ARPA en ese momento. Se calcula un polinomio de

grado 2 24 + 17 modulo el primo p 64 bits = 2 64 - 59. El algoritmo fue

utilizado más adelante por diciembre para discutir las contraseñas en

sus OpenVMS sistema operativo, y todavía se utiliza para este propósito.

2.7 EL FINAL DE ARPANET

Entre 1969 y 1977, Arpanet creció de una red de cuatro ordenadores a otra con más de cien ordenadores que pertenecían a universidades, centros de investigación y centros militares. Usando enlaces de satélite, Arpanet consiguió conectar sistemas de ordenadores desde Estados Unidos a Europa y Hawai. Aunque el sistema había crecido, poca gente tenía acceso al sistema. Generalmente, el público no conocía la existencia de Arpanet.

Otras redes empezaron a surgir, donde se pueden resaltar USENET, BITNET o Ethernet. Se creo un protocolo de enrutamiento llamado EGP (External Gateway Protocol), que hacia posible que redes separadas pudieran acceder entre si, aunque el acceso a Arpanet seguía restringido a usos oficiales. En 1983, la sección militar de Arpanet se separo de la red, dejando únicamente algunas pasarelas de correo electrónico.

En 1986, cinco centros de súper ordenadores formaron una red llamada NSFNET. En poco tiempo, creció incluyendo varias universidades, y al mismo tiempo, otras redes comenzaron a consolidarse como sistemas de gran tamaño. La gente empezó a referirse a esta colección de redes y pasarelas como Internet. La estructura de Arpanet estaba empezando a mostrar su edad. Los sistemas IMP no eran tan eficientes y potentes

como los nodos de ordenadores de otros sistemas de redes. Las organizaciones empezaron a hacer una transición a otras redes, principalmente NSFNET. En 1990, DARPA dio fin al proyecto de Arpanet, ya que esta había cumplido sus objetivos.

CAPITULO III

La Intranet

3.1 INTRODUCCION

Las Intranets son redes privadas que se han creado utilizando las normas y protocolos de Internet. Aportan la interfaz de exploración del World Wide Web (www) a la información y servicios almacenados en una red de área local (LAN) corporativa. Las intranets son atractivas por que disminuyen el costo de mantenimiento de una red interna y, al mismo tiempo, aumenta la productividad, ya que ofrece a los usuarios acceso mas eficaz a la información y a los servicios que necesitan.Con el enorme crecimiento de Internet, un gran numero de personas en las empresas usan Internet para comunicarse con el mundo exterior, para reunir información, y para hacer negocios. A la gente no le lleva mucho tiempo reconocer que los componentes que funcionan tan bien en Internet serían del mismo modo valioso en el interior de sus empresas y esa es la razón por la que las Intranets se están haciendo tan populares.

3.2 INTRANET

La Intranet esta basada en los estándares y protocolos abiertos desarrollados en Internet. Estos estándares abiertos soportan aplicaciones y servicios como correo electrónico (e-mail), trabajo en grupo (work group), servicio de directorio, seguridad, acceso a bases de datos, compartición de información y administración de sistema. La Intranet se beneficia del esfuerzo de la industria entera y no de un solo fabricante.

Las aplicaciones que permiten a los distintos departamentos empresariales enviar información, y a los empleados rellenar formularios de la empresa (como las hojas de asistencia) y utilizar la información corporativa financiera, son muy populares. La mayoría del software que se utiliza en las Intranets es estándar: software de Internet como el Netscape, Navigator y los navegadores Explorer para Web de Microsoft. Y los programas personalizados se construyen frecuentemente usando el lenguaje de programación de Java y el de guión de CGI.

Las Intranets también se pueden utilizar para permitir a las empresas llevar a cabo transacciones de negocio a negocio como: hacer pedidos, enviar facturas, y efectuar pagos. Para mayor seguridad, estas transacciones de Intranet a Intranet no necesitan nunca salir a Internet, pero pueden viajar por líneas alquiladas privadas. Son un sistema poderoso para permitir a una compañía hacer negocios en línea, por ejemplo, permitir que alguien en Internet pida productos.

Cuando alguien solicita un producto en Internet, la información se envía de una manera segura desde Internet a la red interna de la compañía, donde se procesa y se completa el encargo.

3.3 E-MAIL DENTRO DE UNA INTRANET:

Probablemente la parte más usada de una Intranet que no tiene nada que ver con bases de datos de la empresa, páginas Web ostentosas, o contenido multimedia es el uso del correo electrónico. Las Intranets empresariales pueden emplear diferentes programas e-mail, como: Mail Microsoft Mail o Lotus Notes, entre otros. Pero la arquitectura más común que sirve de base al uso del e-mail de las redes internas es el protocolo llamado Protocolo simple de Transferencia de Correo, o SMTP.

3.4 SEGURIDAD DE LA INTRANET

Cualquier Intranet es vulnerable a los ataques de personas que tengan el propósito de destruir o robar datos empresariales. La naturaleza sin limites de Internet y los protocolos TCP/IP exponen a una empresa a este tipo de ataques. Las Intranets requieren varias medidas de seguridad, incluyendo las combinaciones de hardware y software que proporcionan el control del tráfico; la encriptación y las contraseñas para convalidar usuarios; y las herramientas del software para evitar y curar de virus, bloquear sitios indeseables, y controlar el tráfico.

El término genérico usado para denominar a una línea de defensa contra intrusos es firewall. Un firewall es una combinación de hardware / software que controla el tipo de servicios permitidos hacia o desde la Intranet.

Los firewalls protegen a las Intranets de los ataques iniciados contra ellas desde Internet. Están diseñados para proteger a una Intranet del acceso no autorizado a la información de la empresa, y del daño o rechazo de los recursos y servicios informáticos. También están diseñados para impedir que los usuarios internos accedan a los servicios de Internet que puedan ser peligrosos, como FTP. Las computadoras de las Intranets sólo tienen permiso para acceder a Internet después de atravesar un firewall.

3.4.1 ENCRIPTACIÓN

Un medio de asegurar una Intranet es usar la encriptación: alterar datos para que sólo alguien con acceso a códigos específicos para descifrar pueda comprender la información. La encriptación se utiliza para almacenar y enviar contraseña para asegurarse de que ningún fisgón pueda entenderla. La encriptación se emplea también cuando se envían datos entre Intranets en Redes Privadas Muy Seguras (VSPN). Además la encriptación se usa para dirigir el comercio en Internet y proteger la información de la tarjeta de crédito durante la transmisión.Las claves son el centro de la encriptación. Las claves son formulas matemáticas complejas (algoritmos), que se utilizan para cifrar y descifrar mensajes. Si alguien cifra un mensaje sólo otra persona con la clave exacta será capaz de descifrarlo.

3.5 LAS VENTAJAS DE IMPLEMENTAR INTRANET

Los beneficios de la implementación de una Intranet son:

Mayor eficacia organizacional y productividad.

Ahorro de recursos y la preparación de la empresa en una tecnología fundamental para la supervivencia en la Nueva Economía, en las áreas funcionales de servicio al cliente, ventas y marketing, producción y operaciones, ingeniería, recursos humanos, administración, contabilidad y finanzas.

Mejoría en el clima organizacional con efectos directos en la satisfacción de sus clientes y accionistas.

Un beneficio clave de la tecnología Intranet es la habilidad de entregar información actualizada de manera rápida y costo eficiente a toda la base de usuarios. Una Intranet pone información vital al alcance de todos los empleados con acceso a ella. Otra característica que vale la pena mencionar, es la consistencia, porque la información es la misma a lo largo y ancho de la empresa.

Al darle a las personas la posibilidad de acceder a tiempo a información crítica, esta tecnología mejora el proceso de toma de decisiones. Es posible organizar y mantener información centralizada o distribuida según se requiera o se facilite para la obtención y actualización.

Al proveer información instantánea y segura en formato electrónico, se elimina el tiempo y costo asociado a la publicación, duplicación y distribución asociados a la documentación en papel.

Las tecnología Intranet, también permiten compartir información y conocimientos independientemente de la ubicación.

Los grupos multidisciplinarios y multi-departamentales muy en boga, pueden aprovechar grandemente los grupos de discusión virtuales y boletines informativos para preparar reuniones o mejorar la toma de decisiones. Con anchos de banda suficientes, es posible realizar video-conferencias con audio y video en tiempo real.

Con el apoderamiento que da la Intranet, viene la capacidad (muy deseable por cierto) que los usuarios mismos publiquen por su cuenta información de interés de su grupo de trabajo o de la empresa entera.

3.6 IMPORTANCIA

Para casi cualquier empresa de hoy en día, y muy especialmente en un futuro muy cercano, la intranet va ha ser un recurso indispensable. Dada la gran cantidad de datos que genera cualquier empresa, se están quedando obsoletos los actuales métodos de inserción y consulta de datos. Una intranet puede resolver estos y otros problemas.

Una Intranet puede resolver, por ejemplo, el problema de la distribución de información para todos los empleados , así pues se pueden publicar manuales, planes de acción, procedimientos, material de formación, folletos de marketing y productos, listas de precios, información comercial, anuncios, promociones etc. Y son accesibles para el empleado o cliente de forma inmediata, y con un ahorro considerable respecto a los métodos clásicos, panfletos, circulares, notas informativas, etc. Además cualquier actualización de datos es inmediata y no supone ninguna carga para la empresa como los métodos tradicionales.

Una intranet organiza, además, la distribución de una empresa, ya que cada división puede tener su apartado en la intranet. Se puede organizar también una lista de encuentros y reuniones a la que cada empleado podrá acceder rápidamente, planificando así las reuniones de empresa de una forma más eficaz. Se mejora de esta forma la comunicación entre todos los trabajadores, y las sugerencias, peticiones o cualquier comunicación en general, se realiza de una forma más rápida y eficiente.

Se aprovechará también la potencia de una intranet para tener acceso rápido a cualquier documento de la empresa, siempre que se tenga el nivel de privilegios adecuado. Esta es otra de las ventajas de una intranet, su seguridad. Solo tendrán acceso a los recursos aquellos empleados que lo necesiten realmente. Siguiendo con la potencia y velocidad de acceso a datos de una intranet, el tiempo empleado en realizar cualquier búsqueda de datos de cualquier departamento de la empresa se reduce considerablemente, por lo que la productividad de la empresa mejora.

3.7 EJEMPLO DE INTRANET

En la Intranet de una empresa, el acceso a la información es muy similar al acceso a Internet. Ello supone que, si conocemos el proceso para Internet, será casi automático empezar a utilizar una intranet (con el ahorro en formación que eso supone para la empresa).

Se puede describir el proceso de la siguiente manera: Todas las máquinas cliente (PCs locales conectados a una máquina Servidor de Web), utilizan un software especial, un browser (navegador; por ejemplo, Netscape Navigator o Internet Explorer), además de software especial para el correo electrónico, FTP y demás servicios.

El usuario hace click en un hipervínculo, que envía una petición de información al servidor. El hipervínculo contiene el nombre del servidor donde está localizada la información, y el nombre del archivo que ha de ser cargado en el browser.

El servidor lee la petición, vuelca el archivo, y lo manda al cliente.

Para ver el gráfico seleccione la opción "Descargar" del menú superior

El cliente recibe el archivo y lo deposita en la ventana del browser (siempre que dicho archivo sea compatible con el web, por ejemplo, con formato HTML y otros). Puede ocurrir también que el archivo se deposite en discos o en aplicaciones especiales.

3.8 TIPOS DE INTRANETS

Esencialmente, existen tres tipos de intranets según el tamaño de éstas y la distancia entre sus nodos (entendiéndose por nodo cada uno de los equipos que está conectado a dicha intranet)

Por un lado, estarían las LAN. Estas son las redes locales de siempre, el número de nodos conectados a ella van desde 2 a 50 y están situados físicamente cerca y, por lo general, suelen ser redes pertenecientes a las oficinas de una empresa.

Otro segundo tipo de redes son las MAN (Metropolitan Area Network).

Este tipo de redes suele contener varias LAN, y por lo general forman este tipo de redes en los campus universitarios.

Por último, se encuentran las WAN (Wide Area Network), las cuales tienen un ámbito mundial, y suelen incluir, además de la transmisión mediante cables, la conexión mediante satélite y radiofrecuencia. Un ejemplo muy claro de este tipo de redes son las redes corporativas mundiales de empresas como British Telecom o Microsoft, que permiten que todos los empleados reciban las consignas de las oficinas centrales a la vez.

3.8.1 INTRANET EN LAS EMPRESAS

Cada uno de los departamentos necesita tener un medio expedito para poder informar, difundir o hacer llegar boletines,

procedimientos, formularios, calendarios, proyectos, aprobaciones, autorizaciones, modificaciones, planificaciones, etc.

El medio generalmente utilizado es el escrito ("Papel") pero naturalmente las necesidades dependen del tipo de empresa y su tamaño. Sin embargo, es importante desarrollar procedimientos de creación y actualización de los contenidos, así como definir un formato para cada tipo de información.

Algunos de los principales objetivos de Operación y Administración son:

Información de la Empresa. Información para Ejecutivos. Información para Empleados. Políticas y Procedimientos. Administración de Venta /. Administración Comercial /Financiera. Control de Activos /Pasivos.

CAPITULO IV

Internet

4.1 INTERNET

Lo que se conoce hoy en día como Internet es en realidad un conjunto de redes independientes que se encuentran conectadas entre sí permitiendo la comunicación entre las computadoras y construyendo una red mundial para el intercambio de información y datos de todo tipo y la interacción en tiempo real con otras personas. Internet se ha de considerar una red de redes. es decir, una red que no sólo interconecta computadoras, sino que interconecta redes de computadoras entre sí, de esta manera, Internet sirve de enlace entre redes más pequeñas y permite ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene la característica de que utiliza un lenguaje común que garantiza la intercomunicación de los diferentes participantes; este lenguaje común o protocolo (un protocolo es el lenguaje que utilizan las computadoras al compartir recursos) se conoce como TCP/IP.Así pues, Internet es la "red de redes" que utiliza TCP/IP como su protocolo de comunicación.

Internet es un acrónimo de INTERconected NETworks (Redes interconectadas). Para otros, Internet es un acrónimo del inglés INTERnational NET, que traducido al español sería Red Mundial.El TCP / IP es la base de Internet que sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local y área extensa. TCP / IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en ARPANET,, una red de área extensa del departamento de defensa.

Aunque el uso comercial estaba prohibido, su definición exacta era subjetiva y no muy clara. Todo el mundo estaba de acuerdo en que una compañía enviando una factura a otra compañía era claramente uso comercial, pero cualquier otro asunto podía ser debatido. UUCPNet y la IPSS X.25 no tenían esas restricciones, que eventualmente verían la excepción oficial del uso de UUCPNet en conexiones ARPANET y NSFNet. A pesar de ello, algunas conexiones UUCP seguían conectándose a esas redes, puesto que los administradores hacían la vista gorda ante su funcionamiento.

4.2 SERVICIOS DE INTERNET

En Internet se puede encontrar una amplia diversidad de servicios, entre los cuales tenemos:

4.2.1 WWW (world wide web) 

Se trata de un sistema de distribución de información tipo revista. En la Red quedan almacenadas lo que se llaman Páginas Web, que no son más que páginas de texto con gráficos o fotos. Aquellos que se conecten a Internet pueden pedir acceder a dichas páginas y acto seguido éstas aparecen en la pantalla de su ordenador. Este sistema de visualización de la información revolucionó el desarrollo de Internet. A partir de la invención de la WWW, muchas personas empezaron a conectarse a la Red desde sus domicilios, como entretenimiento. Internet recibió un gran impulso, hasta el punto de que hoy en día casi siempre que hablamos de Internet, nos referimos a la WWW.

Es muy común encontrar el prefijo "WWW" al comienzo de

las direcciones web debido a la costumbre de nombrar a los host

de Internet (los servidores) con los servicios que proporcionan. De

esa forma, por ejemplo, el nombre de host para un servidor

web normalmente es "WWW", para un servidor FTP se suele usar

"ftp", y para un servidor de noticias, USENET, "news" o "nntp" (en

relación al protocolo de noticias NNTP). Estos nombres de host

aparecen como subdominio de DNS, como en

"www.example.com".

El uso de estos prefijos no está impuesto por ningún estándar, de

hecho, el primer servidor web se encontraba en

"nxoc01.cern.ch"29 e incluso hoy en día existen muchos sitios Web

que no tienen el prefijo "www". Este prefijo no tiene ninguna

relación con la forma en que se muestra el sitio Web principal. El

prefijo "www" es simplemente una elección para el nombre de

subdominio del sitio Web.

Algunos navegadores web añaden automáticamente "www." al principio, y posiblemente ".com"" al final, en las URL que se teclean, si no se encuentra el host sin ellas. Internet Explorer, Mozilla Firefox y Opera también añadirán "http://www." y ".com" al contenido de la barra de dirección si se pulsan al mismo tiempo las teclas de Control y Enter. Por ejemplo, si se teclea "ejemplo" en la barra de direcciones y luego se pulsa sólo Enter o Control+Enter normalmente buscará "http://www.ejemplo.com",

dependiendo de la versión exacta del navegador y su configuración.

4.2.2 EL CORREO ELECTRÓNICO. 

El correo electrónico es un modo cómodo y rápido de comunicarse con otras personas. Puede utilizar el correo electrónico para:

Enviar y recibir mensajes de texto. Puede enviar un mensaje de correo electrónico a cualquier persona que disponga de una dirección de correo electrónico. El mensaje llega a la bandeja de entrada del destinatario en segundos o minutos, tanto si la persona que envía el mensaje es vecina suya como si vive en el otro extremo del mundo.

El correo electrónico es bidireccional. Puede recibir mensajes de cualquier persona que conozca su dirección de correo electrónico y, a continuación, leer y responder a esos mensajes.

Enviar y recibir archivos. Además de texto, puede enviar prácticamente cualquier tipo de archivo en un mensaje de correo electrónico, incluidos documentos, imágenes y música. Un archivo enviado en un mensaje de correo electrónico se denomina dato adjunto.

Enviar mensajes a grupos de personas. Puede enviar un mensaje de correo electrónico a muchas personas simultáneamente. Los destinatarios pueden responder a todo el grupo, lo cual hace posible los debates en grupo.

Reenviar mensajes. Cuando recibe un mensaje de correo electrónico, puede reenviarlo a otras personas sin necesidad de volver a escribirlo.

Una ventana del correo electrónico frente al teléfono o al correo tradicional es su comodidad: puede enviar un mensaje en cualquier momento del día o de la noche. Si los destinatarios no están delante del equipo y en línea (conectados a Internet), cuando envíe el mensaje, dicho mensaje esperará hasta la próxima vez que comprueben el correo electrónico. Si están en línea, puede obtener una respuesta en minutos.

Además, el correo electrónico es gratuito. A diferencia del envío tradicional de una carta, no se paga por el franqueo u otras tarifas, con independencia de donde viva el destinatario. Los únicos gastos que se aplican son los correspondientes a la conexión a Internet.

Es una de las herramientas de comunicación más efectiva y en muchos casos es preferible a las comunicaciones telefónicas, convirtiéndose en una de las características básicas de Internet.

Por este medio se pueden enviar texto, gráficos, hojas de cálculo, algunos programas ejecutables (dependiendo de la política del proveedor y del espacio que este le dé para su correo) Para realizar estas acciones se necesita contar con un programa de correo especial que sea capaz de acceder a su servidor de correo, como el programa de correo Microsoft Outlook; Lotus Mail, o con algún servicio gratuito de correo electrónico que ofrece el Internet (Yahoo Mail, Hotmail, Latin Mail, Gmail, Terra Mail, entre otros).

4.2.3 Chat, Messenger (conversación, mensajería)

Son programas y sitios que permiten que los usuarios se

comuniquen mediante el teclado, micrófono o ambos

en tiempo real. Estos facilitan muchas cosas ya que por este

medio los usuarios pueden buscar informaron de otro usuario que

este en línea, hablar sobre el tema, conocer gente de acuerdo a

tus intereses, bajar programas, música en formato Mp3 y un

millón de cosas más.

Entre los chats más usados tenemos el Msn Messenger, Yahoo

Messenger, SKYPE, AOL Instant Messenger, etc.

4.2.4 TELEFONÍA 

Nos permiten establecer una conexión con voz entre dos personas conectadas a Internet desde cualquier parte del mundo sin tener que pagar el coste de una llamada internacional. Algunos de estos servicios incorporan no sólo voz, sino también imagen. A esto se le llama Videoconferencia.

4.2.5 LA VIDEOCONFERENCIA.

El núcleo tecnológico usado en un sistema de videoconferencia es

la compresión digital de los flujos de audio y vídeo en tiempo real.

Su implementación proporciona importantes beneficios, como el

trabajo colaborativo entre personas geográficamente distantes y

una mayor integración entre grupos de trabajo.

Esta permite mantener reuniones con grupos de personas situadas en lugares alejados entre sí, permitiendo el intercambio de información gráfica, de imágenes, la transferencia de archivos,

de vídeo, de voz, permite compartir el escritorio de una computadora, hacer presentaciones, etc.

En la actualidad, las limitaciones técnicas, tales como el sonido deficiente, la mala calidad de las imágenes, la poca fiabilidad, la complejidad y el costo, han quedado atrás dando lugar a videoconferencias de alta calidad con audio, vídeo, transferencia de archivos y de un costo más que accesible a la mayoría de los interesados.

Es decir, la videoconferencia ofrece hoy en día una solución accesible a la necesidad de comunicación, con sistemas que permiten el transmitir y recibir información visual y sonora entre puntos o zonas diferentes evitando así los gastos y pérdida de tiempo que implican el traslado físico de la persona.

Estas ventajas hacen a la videoconferencia el segmento de mayor crecimiento en el área de las telecomunicaciones.

4.3 RECURSOS

Esta palabra en el ámbito de Internet quiere decir el provecho que se le puede sacar a los distintos servicios que se ofrecen en la Web. O sea, es la utilización que le dan a los mismos para conformar nuevos servicios o para publicitar. Algunos de estos recursos son:

4.3.1 Banners (banderolas), cookies y enlaces

Son dispositivos que facilitan la navegación por Internet, conducen al usuario hacia las páginas del comercio y permiten al comerciante obtener información del cliente. Una cookie no es más que un fichero de texto plano que diferentes lenguajes de programación web, tanto del lado cliente como del lado servidor depositan en el disco duro de los visitantes de una página web, permitiendo almacenar en ellas valores de variables entre diferentes peticiones de páginas web. A diferencia de otros sistemas de persistencia de variables, como el uso de sesiones de usuario, las cookies son almacenadas en el disco duro del usuario, siendo el navegador web el que lee los valores en ellas contenidos y el encargado de pasarlos al servidor, liberando así éste de los recursos necesarios para estas labores.

4.3.2 Agentes y brokers

Son un colectivo de mediadores independiente de vendedores y empresas, especializados por mercados y muy vinculados con sus clientes. Estos pueden realizar tareas variadísimas, tantas

como pueda necesitar el mercado, desde la búsqueda de artículos por precios hasta analizadores de calidad.

4.3.3 Firewalls

Es un sistema o grupo de sistemas que impone una política de seguridad entre la organización de red privada y el Internet. El firewall determina cuál de los servicios de red pueden ser accedidos dentro de esta por los que están fuera, es decir quién puede entrar para utilizar los recursos de red pertenecientes a la organización. Para que un firewall sea efectivo, todo tráfico de información a través del Internet deberá pasar a través del mismo donde podrá ser inspeccionada la información. El firewall podrá únicamente autorizar el paso del tráfico, y el mismo podrá ser inmune a la penetración. Desgraciadamente, este sistema no puede ofrecer protección alguna una vez que el agresor lo traspasa o permanece en torno a este.

CAPITULO VI

LA INTERNET 2

6.1 INTRODUCCION

El uso de Internet como herramienta educativa y de investigación científica ha crecido aceleradamente debido a la ventaja que representa el poder acceder a grandes bases de datos, la capacidad de compartir información entre colegas y facilitar la coordinación de grupos de trabajo.

Internet 2 es una red de cómputo con capacidades avanzadas separada de la Internet comercial actual. Su origen se basa en el espíritu de colaboración entre las universidades del país y su objetivo principal es desarrollar la próxima generación de aplicaciones telemáticas para facilitar las misiones de investigación y educación de las universidades, además de ayudar en la formación de personal capacitado en el uso y manejo de redes avanzadas de cómputo.

Algunas de las aplicaciones en desarrollo dentro del proyecto de Internet 2 a nivel internacional son: telemedicina, bibliotecas digitales, laboratorios virtuales, manipulación a distancia y visualización de modelos 3D; aplicaciones todas ellas que no serían posibles de desarrollar con la tecnología del Internet de hoy.

En los Estados Unidos el proyecto que lidera este desarrollo es Internet2, en Canadá el proyecto CA*net3, en Europa los proyectos TEN-155 y GEANT, y en Asia el proyecto APAN. Adicionalmente, todas estas redes están conectadas entre si, formando una gran red avanzada de alta velocidad de alcance mundial.

En Latinoamérica, las redes académicas de México CUDI, Brasil, Argentina RETINA y Chile REUNA ya se han integrado a Internet2.

El proyecto Internet2 es administrado por la UCAID (Corporación Universitaria para el Desarrollo Avanzado de Internet) y es un esfuerzo de colaboración para desarrollar tecnología y aplicaciones avanzadas en Internet, vitales para las misiones de investigación y educación de las instituciones de educación superior.

El backbone de Internet2 (la red Abilene y la red vBNS) tiene velocidades que superan los 2 Gbps, y las conexiones de las universidades a este backbone varían entre 45 Mbps y 622 Mbps.

6.2 HISTORIA

A medida que Internet fue ganando reconocimiento público y popularidad, las universidades fueron las primeras instituciones en sobrepasar las limitaciones del ancho de banda de internet debido a los requisitos de transferencia de datos enfrentados por los investigadores académicos que necesitaban colaborar con sus colegas. Algunas universidades quisieron dar soporte a aplicaciones de alto rendimiento, como las utilizadas en la minería de datos, en procesamiento de imágenes médicas o física de partículas. El resultado fue la creación de un Servicio de Backbone de Red de Muy Alto Rendimiento (o vBNS, por su sigla en inglés), desarrollado en 1995 por el National Sciense Foundation y la MCI, creado para las supercomputadoras de las instituciones educativas. Tras la expiración del acuerdo con la NSF,

vBNS cambió hacia la provisión de servicios al gobierno estadounidense. Como resultado, la comunidad educativa y de investigación creó Internet2 para satisfacer sus necesidades de red.

El Proyecto Internet2 fue establecido en 1996 por investigadores de 34 universidades bajo el auspicio de EDUCOM (renombrado después a EDUCAUSE), y fue organizada formalmente como la Corporación Universitaria para el Desarrollo de Internet Avanzado (UCAID) en 1997. Posteriormente su nombre fue modificado a Internet2. Internet2 es una marca registrada. La sede central del Consorcio Internet2 se encuentra ubicada en Michigan, Estados Unidos, y posee oficinas en Washington D.C.

La comunidad Internet2, en colaboración con Qwest, construyeron la primer red de Internet2, llamada Abilene, en 1998, y fue un inversor inicial en el proyecto National LambdaRail (NLR). Entre 2004 y 2006, Internet2 y NLR mantuvieron discusiones extensivas sobre una posible fusión. Las conversaciones fueron suspendidas definitivamente en 2007.

En 2006, Internet2 anunció un contrato de colaboración con Level 3 Communications para lanzar una nueva red de alcance nacional, aumentando la capacidad de 10 Gbits/s a 100 Gbits/s. En octubre de 2007, Internet2 retiró oficialmente a Abilene y actualmente se refiere a su red de alta velocidad como la Red Internet2.

6.3 OBJETIVOS

Internet2 provee a la comunidad educativa e investigadora de Estados Unidos con una red que satisface sus requisitos intensivos de ancho de banda. La red en sí misma es un dinámica, robusta y costo-eficiente combinación entre red óptica y de paquetes. Provee un enlace troncal de red de unos 100 GBits/s a más de 210 instituciones educativas, 70 corporaciones y 45 agencias gubernamentales y organizaciones sin fines de lucro en los EE.UU. Los objetivos de Internet2 son: • Desarrollar y mantener una red vanguardia . • Explotar completamente las capacidades de conexiones de banda ancha a través del uso de aplicaciones de nueva generación. • Transferir nuevos servicios de red y aplicaciones a todos los niveles de uso educacional, y eventualmente a toda la comunidad de internet. El uso de la red varía desde aplicaciones colaborativas, experimentos de investigación distribuidos y análisis de datos basados en grillas o matrices hasta redes sociales. Algunas de estas aplicaciones se encuentran en diferentes niveles de comercialización, como IPv6, middleware open-source para acceso seguro a redes, VPN’s de capa 2 y redes de circuitos dinámicos.

6.4 CARACTERÍSTICAS

Las velocidades mínimas son:

622 Mbit/s para un miembro de I2 (universidades y socios).

50 Mbit/s para un usuario particular.

La enseñanza, el aprendizaje e investigación, en colaboración, pueden requerir interconexión y altas conexiones de banda ancha en tiempo real. La infraestructura básica de Internet2 soporta esas aplicaciones, conocidas como Learning–ware. También han desarrollado otras aplicaciones para entornos de alta velocidad como los laboratoriosvirtuales (LAV), la telemedicina y la teleinmersión.

Para conectarse a Internet2 necesitas que tu red de alta velocidad esté conectada a un GigaPop de Internet2; también puedes conectarte a través de Internet usando unbackbone. Aunque existen muchas similitudes con Internet, la nueva red no penetrante.

El uso de Internet como herramienta educativa y de investigación científica ha crecido aceleradamente debido a la ventaja que representa el poder acceder a grandes bases de datos, la capacidad de compartir información entre colegas y facilitar la coordinación de grupos de trabajo.

Internet 2 es una red de cómputo con capacidades avanzadas separada de la Internet comercial actual. Su origen se basa en el espíritu de colaboración entre las universidades del país y su objetivo principal es desarrollar la próxima generación de aplicaciones telemáticas para facilitar las misiones de investigación y educación de las universidades, además de ayudar en la formación de personal capacitado en el uso y manejo de redes avanzadas de cómputo.

Algunas de las aplicaciones en desarrollo dentro del proyecto de Internet 2 a nivel internacional son: telemedicina, bibliotecas digitales, laboratorios virtuales, manipulación a distancia y visualización de modelos 3D; aplicaciones todas ellas que no serían posibles de desarrollar con la tecnología del Internet de hoy.

En los Estados Unidos el proyecto que lidera este desarrollo es Internet2, en Canadá el proyecto CA*net3, en Europa los proyectos TEN-155 y GEANT, y en Asia el proyecto APAN. Adicionalmente, todas estas redes están conectadas entre si, formando una gran red avanzada de alta velocidad de alcance mundial.

En Latinoamérica, las redes académicas de México CUDI, Brasil, Argentina RETINA y Chile REUNA ya se han integrado a Internet2.

El proyecto Internet2 es administrado por la UCAID (Corporación Universitaria para el Desarrollo Avanzado de Internet) y es un esfuerzo de colaboración para desarrollar tecnología y aplicaciones avanzadas en Internet, vitales para las misiones de investigación y educación de las instituciones de educación superior.

El backbone de Internet2 (la red Abilene y la red vBNS) tiene velocidades que superan los 2 Gbit/s, y las conexiones de las universidades a este backbone varían entre 45 Mbit/s y 622 Mbit/s.

6.5 MIEMBROS DE INTERNET2

Actualmente Internet2 tiene como miembros a más de trescientas instituciones, incluyendo universidades líderes de los Estados Unidos, corporaciones, agencias de investigación de gobierno, y organizaciones de red sin fines de lucro.

Internet2 tiene hasta esta fecha doscientos doce universidades estadounidenses como miembros, incluyendo las diez mejores de este país en el año 2008 según el sitio web UsNews.com, entre las que figuran Princeton University, Harvard University, Yale University, Stanford University, University of Pennsylvania, California Institute of Technology (Caltech), Massachusets Institute of Technology, Duke University, Columbia University y University of Chicago. Se debe mencionar que aunque hay muchas grandes y excelentes universidades fuera de los Estados Unidos, ninguna de ellas es miembro de Internet2 porque de momento no es posible, pues en los términos de afiliación de Internet2 existe la siguiente cláusula:"Universidades no localizadas en los Estados Unidos no podrían llegar a ser miembros de Internet2. En vez de eso, Internet2 ha desarrollado relaciones con Socios Internacionales quienes están también dedicados a las redes avanzadas. En algunos casos, los Socios Internacionales podrían operar una red de alto desempeño por la cual una Universidad Internacional se podría conectar. Muchas organizaciones Socios Internacionales se despliegan con la red Abilene."Sin embargo, a través de acuerdos mutuos con organizaciones similares alrededor del mundo, Internet2 está estableciendo lazos que ayudarán a asegurar la continua interoperabilidad global de redes avanzadas, y habilita la colaboración entre investigadores, facultades y estudiantes de los Estados Unidos, con sus similares en otros lugares.Además de las doscientas doce universidades, Internet2 también cuenta con otros miembros, entre los que aparecen prestigiosas organizaciones como Cisco Systems, HP, IBM Corporation, Microsoft Research, EBSCO Information Services, Google, Red Hat, Inc., Verizon Business, Warner Bros., NASA Goddard Space Flight Center, NASA Marshall Space Flight Center, National Geographic, The World Bank, entre otros.

El resumen de miembros y socios de Internet2 hasta julio de 2008 se muestra a continuación:

·         212 Universidades Miembro estadounidenses·         11 Socios Corporativos·         9 Patrocinadores Corporativos·         31 Miembros Corporativos·         45 Miembros Afiliados·         31 Redes de Educación y Educativas Miembro·         58 Socios Internacionales

CAPITULO VII

Hackers y virus del Internet

7.1 HAKER

Todos hemos escuchado el término "Hacker" alguna vez, los que contamos con un computador en casa, el sólo hecho de escuchar el término nos asusta, lo relacionamos con virus y espías peligrosos que pueden causar graves daños a nuestro ordenador.En este informe he querido presentar brevemente la definición de hacker y lo que éste término lleva consigo, que es bastante más de lo que podría imaginar al comenzar esta investigación.

El término "hacker" provendría de hack, palabra utilizada en EEUU para describir el sonido que hacían los técnicos de las empresas telefónicas al golpear los aparatos para que funcionaran.

Un hacker denominado "sombrero blanco" es un experto en una o varias ramas de la computación y telecomunicación: redes de comunicación, programación, sistemas operativos, hardware. Su función consiste en buscar defectos, puertas traseras y mejorar la seguridad del software, así como prevenir posibles errores futuros.

También existen los llamados hackers "sombreros negros" que utilizan todo el conocimiento que poseen, con fines maliciosos, antimorales o incluso bélicos, como intrusión de redes, acceso ilegal a sistemas gubernamentales, robo de información y muchos más crímenes informaticos.

También es hacker el que distribuye material ilegal o moralmente inaceptable, como fabricación de virus, herramientas de hackeo y elementos de anarquismo como la distribución de manuales para fabricar elementos explosivos caseros o la clásica tortura china, el hacker se distingue del pirata informático por sus valores morales, sociales y políticos que por lo general enfrentados al mundo capitalista

En una línea semejante se encuentran los crackers. Ellos se ocupan de piratear programas, penetrar a sistemas privados y en ocasiones, de destruirlos. Además, se muestra como un grupo experto en la inserción de poderosos virus computacionales en la red, con la idea de sabotear al máximo los grandes sistemas. Como ejemplo, baste decir que en los ochenta una plaga de virus transmitidos por "computólogos" búlgaros a través de discos de software, causó daños en cientos de computadoras personales.

Aunque en muchas ocasiones se piensa que crackers y hackers son lo mismo, en realidad existen ciertas distinciones, aunque resulta difícil dibujar claramente la línea divisoria.

A lo difícil que es diferenciar las actividades de crackers y hackers, muchas veces a éstos últimos se les atribuye actividades delictivas en la red, del robo y/o destrucción de información. Sin embargo, los hackers se han planteado una ética que pretende liberar la información, antes que realizar acciones ilícitas.

El término hacker, en conclusión, se utiliza para identificar a los que únicamente acceden a un sistema protegido como si se tratara de un reto personal, sin intentar causar daños.

7.1.1 LA COMUNIDAD HACKER

La comunidad hacker empieza a formarse a comienzos de los años 60 dentro de los laboratorios de Ciencias de la Computación y de Inteligencia Artificial de las universidades americanas más prestigiosas. Parece ser que los primeros que utilizaron el término hacker en su sentido actual fueron los investigadores del Laboratorio de Inteligencia Artificial del Massachusets Institute of Technology (MIT).

El establecimiento en 1969 de ARPANET --la primera red transcontinental de computadores-- favoreció el rápido desarrollo de la comunidad hacker. Los primeros productos de su folclore --las primeras compilaciones de jerga hacker, los primeros escritos satíricos y las primeras reflexiones acerca de la ética hacker-- se distribuyeron extensamente por ARPANET a comienzos de los años 70. A finales de esa década, los hackers Ken Thompson y Dennis Ritchie desarrollaron el sistema operativo Unix y el lenguaje C. Durante la década de los 80, la comunidad hacker adoptó Unix como su sistema operativo y, aprovechando las capacidades que proporcionaba el nuevo sistema para interconectar computadores, desarrolló una redde computadores, USENET, aún más extensa que la original ARPANET.

USENET, como antes ARPANET, contribuyó decisivamente al desarrollo de la comunidad hacker, al permitir el rápido y fácil intercambio de información, noticias y productos entre sus miembros. Precisamente en uno de los boletines de noticias de USENET, net.unix-wizards, en septiembre de 1983, se anunció bajo el título ``Nueva implementación de Unix'' la primera implementación libre de Unix:

El próximo Día de Acción de Gracias comenzaré a escribir un sistema operativo compatible con Unix denominado GNU (por GNU No es Unix), y lo distribuiré libremente a todo aquel que quiera utilizarlo. Se necesitan colaboradores que dediquen tiempo, dinero, programas y equipos a este proyecto.El mensaje lo firmaba Richard Stallman, creador del editor de textos EMACS --uno de los favoritos entre los hackers--, y miembro entonces del Laboratorio de Inteligencia Artificial del MIT. Aunque la nueva implementación de Unix anunciada por Stallman no estuvo disponible hasta 1996, sus ideas acerca del carácter no propietario o libre del software configuraron laideología hacker hasta mediados de los años 90. Para

Stallman, software libre significa que el usuario tiene:la libertad para ejecutar el programa con cualquier fin;

la libertad para analizar como funciona el programa y adaptarlo a sus necesidades.

la libertad para distribuir copias del programa con el fin de ayudar a sus colegas

la libertad para mejorar el programa y publicar sus resultados de forma que toda la comunidad se pueda beneficiar de sus innovaciones.

A comienzos de los años 90, Linus Torvalds, un estudiante de la Universidad de Helsinki, decidió desarrollar una versión libre de Unix para su computador personal. Como Stallman había hecho en 1983, Torvalds anunció su proyectó utilizando los boletines de noticias de USENET.

Aunque los primeros computadores personales (PC) se comercializaron en 1975, la comunidad hacker no les prestó atención hasta comienzos de los 90, cuando aparecieron los primeros computadores personales con prestaciones equiparables a las estaciones de trabajo Unix de los años 80, pero a un precio sustancialmente inferior. Sin embargo, faltaba por desarrollar versiones de Unix para los computadores personales a un precio igualmente asequible. La propuesta de Torvalds recibió un apoyo entusiasta dentro de la comunidad hacker y, a finales de 1993, se empezaban a distribuir libremente las primeras versiones de Linux. Desde entonces, el desarrollo de Linux ha venido centrando la actividad de la comunidad hacker.Por esto se considera a los Hackers creadores de Linux y que sin su cooperación no existirían internet ni World Wide Web.

7.1.2 LA ÉTICA HACKER

La idea de ética hacker es formulada por vez primera en el libro de Steven Levy publicado en 1984 "Hacker: Heroes of de Computer Revolution",en donde señala que:

El acceso a las computadoras debe ser ilimitado y total. Toda la información debe ser libre Es necesario promover la descentralización Los hackers deben ser juzgados por su labor, no por su raza, edad o

posición. Su labor se centrará en el logro del libre acceso a la información.

Los hackers forman una élite de la informática que tiene la plena convicción de que toda la información debe ser libre y por lo tanto, las redes también deben serlo. 

Una de sus actividades más comunes es demostrar la factibilidad de invadir sistemas de cómputo, para demostrar su fragilidad.

Por ejemplo, los hackers alemanes del Chaos Computer Club de Hamburgo penetraron al sistema hacendario de la localidad, para retirar algunos marcos. Al día siguiente los devolvieron e informaron sobre las fallas del sistema. Por situaciones como ésta, los hackers se han dado a conocer como los Robin Hood de la cibercultura.Ellos consideran que el ciberespacio es controlado por grandes multinacionales de las comunicaciones y de la informática, con base en el ejercicio de políticas antisociales, pues afirman que estas empresas mantienen sus equipos más avanzados lejos de la mayoría de la gente. Piensan que otro tipo de apropiación tecnológica es la ejercida por las compañías telefónicas, quiénes cobran precios muy altos por sus servicios.

V. ¿CÓMO PIENSA UN HACKER?1.El mundo está lleno de problemas fascinantes que esperan ser resueltos2. Nadie debería tener que resolver un problema dos veces3. Lo aburrido y rutinario es malo4. La libertad es buena5. La actitud no es sustituta para la habilidadVI. MANDAMIENTOS DE UN HACKER· Nunca dañes algo intencionadamente. Lo único que conseguirás será buscarte problemas.· Modifica sólo lo estrictamente necesario para entrar y evitar ser localizado, o para poder acceder otras veces.· No hackees nunca por venganza ni por intereses personales o económicos.· No hackees sistemas pobres que no puedan reponerse de un ataque fuerte. Ni tampoco sistemas ricos o grandes que puedan permitirse gastar dinero y tiempo en buscarte.· Odia a Telefónica pero no te metas con ella.· No hackees ordenadores del gobierno. No olvides que la policía trabaja para ellos.· No comentes con nadie tus hazañas (los más grandes hackers de la historia han sido cazados debido a las confesiones de sus novias)· Cuando hables por Internet, procura ser lo más discreto posible. Todo lo que digas quedará almacenado.· Sé paranoico. No dejes ningún dato que pueda relacionarse contigo.· Estudia mucho antes de lanzarte a la práctica. Nunca dejes de estudiar y de aprender nuevas cosas.

VII. TIPOS DE ATAQUESLos métodos de ataque descritos a continuación están divididos en categorías generales que pueden estar relacionadas entre sí, ya que el uso de un método en una categoría permite el uso de otros métodos en otras. Por ejemplo: después de hackear un password, un intruso realiza un login como usuario legítimo para navegar entre los archivos y explotar vulnerabilidades del sistema. Eventualmente también, el atacante puede adquirir derechos a lugares que le permitan dejar un virus u otras bombas lógicas para paralizar todo un sistema antes de huir.EAVESDROPPING Y PACKET SNIFFINGMuchas redes son vulnerables al eavesdropping (escuchar secretamente,), o la pasiva intercepción (sin modificación) del tráfico de red. En Internet esto es realizado por packet sniffers, que son programas que monitorean los paquetes de red que están direccionados a la computadora donde están instalados. El sniffer puede ser colocado tanto en una estación de trabajo conectada a red,

como a un equipo router o a un gateway de Internet, y esto puede ser realizado por un usuario con legítimo acceso, o por un intruso que ha ingresado por otras vías. Existen kits disponibles para facilitar su instalación.Este método es muy utilizado para capturar logins, IP‘s y passwords de usuarios, que generalmente viajan claros (sin encriptar) al ingresar a sistemas de acceso remoto (RAS). También son utilizados para capturar números de tarjetas de crédito y direcciones de e-mail entrantes y salientes. SNOOPING Y DOWNLOADINGLos ataques de esta categoría tienen el mismo objetivo que el sniffing, obtener la información sin modificarla. Sin embargo los métodos son diferentes. Además de interceptar el tráfico de red, el atacante ingresa a los documentos, mensajes de e-mail y otra información guardada, realizando en la mayoría de los casos un downloading de esa información a su propiacomputadora.El Snooping puede ser realizado por simple curiosidad, pero también es realizado con fines de espionaje y robo de información o software. TAMPERING O DATA DIDDLINGEsta categoría se refiere a la modificación desautorizada a los datos, o al software instalado en un sistema, incluyendo borrado de archivos. Este tipo de ataques son particularmente serios cuando el que lo realiza ha obtenido derechos de administrador o supervisor, con la capacidad de disparar cualquier comando y poder alterar o borrar cualquier información que puede incluso terminar en la baja total del sistema en forma deliberada. O aún si no hubo intenciones de ello, el administrador posiblemente necesite dar de baja por horas o días hasta chequear y tratar de recuperar aquella información que ha sido alterada o borrada. Como siempre, esto puede ser realizado por insiders o outsiders, generalmente con el propósito defraude o dejar fuera de servicio un competidor.SPOOFING

Esta técnica es utilizada para actuar en nombre de otros usuarios, usualmente para realizar tareas de snoofing o tampering. Una forma común de spoofing, es conseguir el nombre y password de un usuario legítimo para, una vez ingresado al sistema, tomar acciones en nombre de él, como puede ser el envío de falsos e-mails.El intruso usualmente utiliza un sistema para obtener información e ingresar en otro, y luego utiliza este para entrar en otro, y en otro. Este proceso, llamado Looping, tiene la finalidad de evaporar la identificación y la ubicación del atacante. El envío de falsos e-mails es otra forma de spoofing permitida por las redes. Aquí el atacante envía a nombre de otra persona e-mails con otros objetivos. Tal fue el caso de una universidad en USA que en 1998 debió reprogramar una fecha completa de exámenes ya que alguien en nombre de la secretaría había cancelado la fecha verdadera y enviado el mensaje a toda la nómina (163 estudiantes).JAMMING o FLOODINGEste tipo de ataques desactivan o saturan los recursos del sistema. Por ejemplo, un atacante puede consumir toda la memoria o espacio en disco disponible, así como enviar tanto tráfico a la red que nadie más puede utilizarla.Muchos ISPs (proveedores de Internet) han sufrido bajas temporales del servicio por ataques que explotan el protocolo TCP. Aquí el atacante satura el sistema con mensajes que requieren establecer conexión. Sin embargo, en vez de proveer la dirección IP del emisor, el mensaje contiene falsas direcciones IP (o sea que este ataque involucra también spoofing). El sistema responde al

mensaje, pero como no recibe respuesta, acumula buffers con información de las conexiones abiertas, no dejando lugar a las conexiones legítimas.Muchos servidores de Internet han sido dados de baja por el "ping de la muerte", una versión-trampa del comando ping. Mientras que el ping normal simplemente verifica si un sistema esta enlazado a la red, el ping de la muerte causa el reinicio o el apagado instantáneo del equipo.Otra acción común es la de enviar millares de e-mails sin sentido a todos los usuarios posibles en forma continua, saturando los distintos servidores de destino.  CABALLOS DE TROYAConsiste en introducir dentro de un programa una rutina o conjunto de instrucciones, por supuesto no autorizadas y que la persona que lo ejecuta no conoce, para que dicho programa actúe de una forma diferente a como estaba previsto (Por ej. Formatear el disco duro, modificar un fichero, sacar un mensaje, etc..).BOMBAS LOGICASEste suele ser el procedimiento de sabotaje mas comúnmente utilizado por empleados descontentos. Consiste en introducir un programa o rutina que en una fecha determinada destruirá, modificara la información o provocara el cuelgue del sistema.INGENIERA SOCIALBásicamente convencer a la gente de que haga lo que en realidad no debería. Por ejemplo llamar a un usuario haciéndose pasar por administrador del sistema y requerirle la password con alguna excusa convincente. Esto es común cuando en el Centro de Computo los administradores son amigos o conocidos.DIFUSION DE VIRUSSi bien es un ataque de tipo tampering, difiere de este porque puede ser ingresado al sistema por un dispositivo externo o través de la red (e-mails u otros protocolos) sin intervención directa del atacante. Dado que el virus tiene como característica propia su autoreproducción, no necesita de mucha ayuda para propagarse a traves de una LAN o WAN rápidamente, si es que no esta instalada una protección antivirus en los servidores, estaciones de trabajo, y los servidores de e-mail.Existen distintos tipos de virus, como aquellos que infectan archivos ejecutables (.exe, .com, .bat, etc.) y los sectores de inicio de discos y diskettes, pero aquellos que causan en estos tiempos mas problemas son los macro-virus, que están ocultos en simples documentos o planilla de cálculo, aplicaciones que utiliza cualquier usuario de PC, y cuya difusión se potenciacon la posibilidad de su transmisión de un continente a otro a través de cualquier red o Internet. Y además son multiplataforma, es decir, no están atados a un sistema operativo en particular, ya que un documento de MS-Word puede ser procesado tanto en un equipo Windows 3.x/95/98 , como en una Macintosh u otras.OBTENCIÓN DE PASSWORDS, CÓDIGOS Y CLAVESEste método (usualmente denominado cracking), comprende la obtención "por fuerza bruta" de aquellas claves que permiten ingresar a servidores, aplicaciones, cuentas, etc. Muchos passwords de acceso son obtenidos fácilmente porque involucran el nombre u otro dato familiar del usuario, que además nunca lo cambia. En este caso el ataque se simplifica e involucra algún tiempo de prueba y error. Otras veces se realizan ataques sistemáticos (incluso con varias computadoras a la vez) con la ayuda de programas especiales y "diccionarios" que prueban millones de posibles claves hasta encontrar el password correcto. Es muy frecuente crackear un password explotando

agujeros en los algoritmos de encriptación utilizados, o en la administración de las claves por parte la empresa.XI.CONCLUSIÓN.Los hackers son personas con grandes habilidades informáticas, que exigen que la red (Internet) sea de uso público, sin restricciones de pagos por información. Lamentablemente esto choca con el capitalismo imperante en nuestros tiempos, pasa a ser una idea casi surrealista la de tener una red de libre acceso sin ningún costo, más para las grandes empresas que proporcionan los servicios de conexión y acceso a datos las cuales jamás permitirían que esto sucediera ya que se quedarían sin la mayoría de sus ingresos.Así, me parece una idea bastante acertada la que compara a los actuales hackers con el personaje Robin Hood, por buscar un fin bastante ilusorio para nuestros días.Debo mencionar si a los que, siendo personas con grandes conocimientos, los usan en menoscabo de simples usuarios de la red, perjudicándolos en su acceso a la red, estas personas si son ciber-criminales, por hacerlo solo buscando una satisfacción propia y egoísta.

Virus

Definición

Es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en una computadora, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos. Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces elcontrol de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se

añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.

El primer virus que atacó a una máquina IBM Serie 360 (y reconocido como tal), fue llamado Creeper, creado en 1972 por Robert Thomas Morris. Este programa emitía periódicamente en la pantalla el mensaje: "I'm a creeper... catch me if you can!" (Soy una enredadera, agárrenme si pueden). Para eliminar este problema se creó el primer programa antivirusdenominado Reaper (segadora). Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Sus inicios fueron en los laboratorios de Bell Computers. Tres programadores desarrollaron un juego llamado Core Wars, el cual consistía en ocupar toda la memoria RAM del equipo contrario en el menor tiempo posible. Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de diskettes hasta los que se adjuntan en un correo electrónico y se ocultan en un formato de imagen comprimida con la extensión JPG.

CaracterísticasDado que una característica de los virus es el consumo de recursos, los virus ocasionan problemas tales como: pérdida de productividad, cortes en los sistemas de información o daños a nivel de datos. Una de las características es la posibilidad que tienen de diseminarse por medio de replicas y copias. Las redes en la actualidad ayudan a dicha propagación cuando éstas no tienen la seguridad adecuada. Otros daños que los virus producen a los sistemas informáticos son la pérdida de información, horas de parada productiva, tiempo de reinstalación, etc. Hay que tener en cuenta que cada virus plantea una situación diferente.Algunas de las características de estos agentes víricos:

Son programas de computadora: En informática programa es sinónimo de Software, es decir el conjunto de instrucciones que ejecuta un ordenador o computadora.

Es dañino: Un virus informático siempre causa daños en el sistema que infecta, pero vale aclarar que el hacer daño no significa que vaya a romper algo. El daño puede ser implícito cuando lo que se busca es destruir o alterar información o pueden ser situaciones con efectos negativos para la computadora, como consumo de memoria principal, tiempo deprocesador.

Es auto reproductor: La característica más importante de este tipo de programas es la de crear copias de sí mismos, cosa que ningún otro programa convencional hace. Imaginemos que si todos tuvieran esta capacidad podríamos instalar un procesador de textos y un par de días más tarde tendríamos tres de ellos o más.

Pueden ser Polimórficos: Algunos virus tienen la capacidad de modificar su código, lo que significa que un virus puede tener múltiples variantes similares, haciéndolos difíciles de detectar.

Pueden permanecer en la computadora aún si el disco duro es formateado: Si bien son muy pocos los casos, algunos virus tienen la capacidad de infectar diferentes porciones de la computadora como el CMOS o alojarse en el MBR (sector de buteo)

Tipos o ClasificaciónExisten fundamentalmente dos tipos de virus:Aquellos que infectan archivos. A su vez, éstos se clasifican en:

Virus de acción directa. En el momento en el que se ejecutan, infectan a otros programas.

Virus residentes. Al ser ejecutados, se instalan en la memoria de la computadora. Infectan a los demás programas a medida que se accede a ello

Un virus es simplemente un programa, una secuencia de instrucciones y rutinas creadas con el único objetivo de alterar el correcto funcionamiento del sistema y, en la inmensa mayoría de los casos, corromper o destruir parte o la totalidad de los datos almacenados en el disco. De todas formas, dentro del término "virus informático" se suelen englobar varios tipos de programas, por lo que a continuación se da un pequeño repaso a cada uno de ellos poniendo de manifiesto sus diferencias

Dentro del término "virus informático" se suelen englobar varios tipos de programas, por lo que a continuación se da un pequeño repaso a cada uno de ellos poniendo de manifiesto sus diferencias.

Gusanos: son programas que se reproducen a sí mismos y no requieren de un programa o archivo anfitrión.Virus Puros: Un verdadero virus tiene como características más importantes la capacidad de copiarse a sí mismo en soportes diferentes al que se encontraba originalmente, y por supuesto hacerlo con el mayor sigilo posible y de forma transparente al usuarioBombas de Tiempo: son virus programados para entrar en acción en un momento predeterminado, una hora o fecha en particular.Caballos de Troya: son virus que se introducen al sistema bajo una apariencia totalmente diferente a la de su objetivo final, como el Caballo de Troya original. Al cabo de algún tiempo se activan y muestran sus verdaderas intenciones.