Software">
Investigacion de Internet para La Web
Investigacion de Internet para La Web
Investigacion de Internet para La Web
Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide Web (WWW o la
Web), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un
conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos
de hipertexto. Esta fue un desarrollo posterior (1990) y utiliza internet como medio de
transmisión.4
Existen, por tanto, muchos otros servicios y protocolos en internet, aparte de la Web: el envío
de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en
línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación
multimedia —telefonía (VoIP), televisión (IPTV)—, los boletines electrónicos (NNTP), el acceso
remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.456
Internet es una red de computadoras interconectadas a nivel mundial en forma de tela de araña.
Consiste de servidores (o "nodos") que proveen información a aproximadamente 100 millones de
personas que están conectadas entre ellas a través de las redes de telefonía y cable.
https://ccp.ucr.ac.cr/cursoweb/112que.htm
¿Qué es la Web?
https://www.informaticamilenium.com.mx/es/temas/que-es-el-web.html
Web es una palabra inglesa que significa red o telaraña. Se designa como ‘la web’ al sistema de
gestión de información más popular para la trasmisión de datos a través de internet.
Para usar la web es necesario tener acceso a internet y un navegador web, por la cual se solicita
una página dinámica llamada también página web.
El navegador web como, por ejemplo, Google Chrome, se comunica con el servidor web mediante
el protocolo web o HTTP (hypertext transfer protocol) para entregar la petición deseada.
La web usa para la creación de sus páginas web el lenguaje HTML (hypertext markup language)
que unificó la forma de buscar y crear información a través de internet. El conjunto de páginas
web asociadas se sitúan en un sitio web como lo es, por ejemplo, Youtube.
https://www.significados.com/web/
¿Qué es un servidor?
Un servidor web (server) es un ordenador de gran potencia que se encarga de “prestar el servicio”
de transmitir la información pedida por sus clientes (otros ordenadores, dispositivos móviles,
impresoras, personas, etc.)
Los servidores web (web server) son un componente de los servidores que tienen como principal
función almacenar, en web hosting, todos los archivos propios de una página web (imágenes,
textos, videos, etc.) y transmitirlos a los usuarios a través de los navegadores mediante el
protocolo HTTP (Hipertext Transfer Protocol).
Este proceso, para los internautas no dura más que un segundo, sin embargo, a nivel del web
server es una secuencia más complicada de lo que parece.
Para cumplir con sus funciones el servidor deberá tener la capacidad de estar siempre encendido
para evitar interrumpir el servicio que le ofrece a sus clientes. Si dicho servidor falla o se apaga, los
internautas tendrán problemas al ingresar al sitio web.
Para saber cómo funciona, primero es necesario conocer que el web server está
permanentemente en espera de una solicitud de información.
Además, ten en cuenta que toda computadora, smartphone o tablet tiene una dirección IP única e
irrepetible que lo identifica de otro dispositivo en la red, así es como el servidor web envía la
información exacta que el internauta está esperando.
Ahora bien, para que el web server pueda cumplir con su función es necesario que reciba la
petición por parte de un navegador, en otras palabras, se envía un pedido desde una dirección IP
hacia la dirección IP del servidor que aloja los archivos del sitio en cuestión.
A continuación, el servidor web busca en sus archivos la información que se le está solicitando,
procede a interpretar las líneas de código y a enviar el resultado al navegador cuya dirección IP fue
la solicitante.
Este resultado se le muestra a los internautas y es lo que siempre sucede cuando se navega en
sitios de Internet. Cuando este proceso se completa podemos decir que el web server ha cumplido
con su función.
https://rockcontent.com/es/blog/que-es-un-servidor/
Un servidor web es un software que forma parte del servidor y tiene como misión principal
devolver información (páginas) cuando recibe peticiones por parte de los usuarios.
En otras palabras, es el software que permite que los usuarios que quieren ver una página web en
su navegador puedan hacerlo.
Para el funcionamiento correcto de un servidor web necesitamos un cliente web que realice una
petición http o https a través de un navegador como Chrome, Firefox o Safari y un servidor donde
esté almacenada la información.
Tras la primera consulta por parte del usuario hacia una web, se establece una conexión entre el
servidor DNS y el ordenador que realiza la consulta o petición. Este servidor DNS responde con la
dirección IP correcta del servidor web donde está alojado el contenido solicitado.
El siguiente paso sería solicitar el contenido al servidor web mediante el protocolo HTTP/HTTPS.
Una vez que el servidor web ha recibido la solicitud del contenido solicitado por el cliente web,
deberá procesar la solicitud hasta encontrar el contenido solicitado dentro del dominio
correspondiente.
Tienes que tener en cuanta que existen diferencias entre un servidor web y un hosting web.
El servidor HTTP Apache es un software de código abierto y gratuito, que durante años ha sido el
software más utilizado por los servidores web, rivalizando actualmente con Nginx.
Además destaca por ser multiplataforma, siendo compatible con sistemas operativos como Linux,
Window, IOS, Unix, etc.
Servidor Nginx
Este tipo de servidor web es conocido por su buen funcionamiento cuando tiene que gestionar un
número alto de visitas simultáneas, ya que los usuarios no perciben retraso en la carga de la
página aunque se esté produciendo ese acceso concurrente.
Webempresa trabaja en sus servidores con una combinación de Nginx y Apache, aprovechando las
ventajas de ambos para ofrecer un rendimiento óptimo de carga incluso cuando una Web recibe
un volumen alto de visitas.
LiteSpeed
LiteSpeed nació como sustituto de Apache, para mejorar el rendimiento del servidor web en
entornos de alto tráfico.
LiteSpeed puede ser utilizado como reemplazo directo de Apache, ya que ofrece compatibilidad
con los archivos .htaccess y las aplicaciones web diseñadas para Apache.
Este tipo de servidor web está desarrollado por Microsoft y, en el caso de que se necesite integrar
herramientas de Microsoft, sería una alternativa recomendable por la compatibilidad que
obtendríamos.
Se ejecuta con Windows gracias a la tecnología IIS (Internet Information Services) y es compatible
con páginas programadas en ASP (Active Server Pages) o .NET, a diferencia del resto de servidores
web compatibles con Linux.
Este tipo de servidor está pensado para programadores que trabajan con Java, Python o Ruby.
Es un servidor web creado para soportar una gran carga de trabajo con tecnologías muy
específicas como Java.
https://www.webempresa.com/hosting/que-es-servidor-web.html
Un servidor web o servidor HTTP es un programa informático que procesa una aplicación del lado
del servidor, realizando conexiones bidireccionales o unidireccionales y síncronas o asíncronas con
el cliente y generando o cediendo una respuesta en cualquier lenguaje o aplicación del lado del
cliente. El código recibido por el cliente es renderizado por un navegador web. Para la transmisión
de todos estos datos suele utilizarse algún protocolo. Generalmente se usa el protocolo HTTP para
estas comunicaciones, perteneciente a la capa de aplicación del modelo OSI. El término también
se emplea para referirse al ordenador donde se ejecutan esas tareas.
https://es.wikipedia.org/wiki/Servidor_web
¿Qué es un servidor?
La comunicación entre cliente y servidor depende de cada servicio y se define por medio de un
protocolo de transmisión. Este principio puede aclararse partiendo de los siguientes tipos de
servidores:
Servidor web: la tarea principal de un servidor web es la de guardar y organizar páginas
web y entregarlas a clientes como navegadores web o crawlers. La comunicación entre
servidor (software) y cliente se basa en HTTP, es decir, en el protocolo de transferencia de
hipertexto o en HTTPS, la variante codificada. Por regla general, se transmiten
documentos HTML y los elementos integrados en ellos, tales como imágenes, hojas de
estilo o scripts. Los servidores web más populares son el servidor HTTP Apache, los
servicios de Internet Information Server de Microsoft (ISS) o el servidor Nginx.
Servidor de archivos: un servidor de archivos se encarga de almacenar los datos a los que
acceden los diferentes clientes a través de una red. Las empresas apuestan por dicha
gestión de archivos para que sea mayor el número de grupos de trabajo que tengan
acceso a los mismos datos. Un servidor de archivos contrarresta los conflictos originados
por las diferentes versiones de archivos locales y hace posible tanto la creación automática
de las diferentes versiones de datos como la realización de una copia de seguridad central
de la totalidad de datos de la empresa. En el acceso al servidor de archivos por medio de
Internet entran en juego protocolos de transmisión como FTP (File Transfer Protocol),
SFTP (Secure File Transfer Protocol), FTPS (FTP over SSL) o SCP (Secure Copy). Los
protocolos SMB (Server Message Block) y NFS (Network File System) se encuentran
habitualmente en las redes de área locales (LAN).
Mientras que a las grandes empresas les sale rentable la adquisición de hardware de servidores,
los autónomos y los particulares que quieren desarrollar proyectos en un servidor propio recurren
normalmente al alquiler. Los proveedores especializados ofrecen diferentes modelos
de servidores de alquiler en los que los usuarios no tienen que preocuparse por el funcionamiento
de la máquina física. La gama de productos abarca desde servidores dedicados
cuyos componentes de hardware se ponen a disposición de los usuarios de manera exclusiva,
hasta servicios de hosting compartido para alojar a varios clientes virtuales en una base de
hardware común. Para obtener más información, visita nuestra guía sobre las ventajas y los
inconvenientes de los diferentes modelos de alojamiento.
https://www.ionos.es/digitalguide/servidores/know-how/que-es-un-servidor-un-concepto-dos-
definiciones/
Cuando hablamos de software web nos referimos a aplicaciones que se instalan en servidores
(propios o de alguna empresa que provea servicios de hosting), ordenadores dedicados a proveer
servicios, realizar tareas, ante peticiones de otros ordenadores. Estas aplicaciones web o softwares
web son desarrollados por programadores que utilizan entornos de programación Fontend y
Backend.
En este caso, los datos y la lógica de negocio quedan centralizados en el propio servidor y los
usuarios podrán acceder a ellos por medio de sus propios navegadores web.
Las aplicaciones web son populares debido a lo práctico del navegador web como cliente ligero, a
la independencia del sistema operativo, así como a la facilidad para actualizar y mantener
aplicaciones web sin distribuir e instalar software a miles de usuarios potenciales. Existen
aplicaciones como los correos web, wikis, blogs, tiendas en línea y la propia Wikipedia que son
ejemplos bastante conocidos de aplicaciones web.
Es importante mencionar que una página web puede contener elementos que permiten una
comunicación activa entre el usuario y la información. Esto permite que el usuario acceda a los
datos de modo interactivo, gracias a que la página responderá a cada una de sus acciones, como
por ejemplo rellenar y enviar formularios, participar en juegos diversos y acceder a gestores de
base de datos de todo tipo.
Antecedentes[editar]
A diferencia de lo anterior, las aplicaciones web generan dinámicamente una serie de páginas en
un formato estándar, como HTML o XHTML, soportados por los navegadores web comunes. Se
utilizan lenguajes interpretados en el lado del cliente, directamente o a través de plugins tales
como JavaScript, Java, Flash, etc., para añadir elementos dinámicos a la interfaz de usuario.
Generalmente cada página web en particular se envía al cliente como un documento estático,
pero la secuencia de páginas ofrece al usuario una experiencia interactiva. Durante la sesión, el
navegador web interpreta y muestra en pantalla las páginas, actuando como cliente para cualquier
aplicación web.
Estructura[editar]
Aunque existen muchas variaciones posibles, una aplicación web está normalmente estructurada
como una aplicación de tres-capas. En su forma más común, el navegador web ofrece la primera
capa, interpretando el código. El servidor que ofrece este código y toda la información es la
segunda capa. Por último, una base de datos constituye la tercera y última capa.
El navegador web manda peticiones a la capa intermedia, la cual ofrece servicios valiéndose de
consultas y actualizaciones a la base de datos, y, a su vez, proporciona una interfaz de usuario.
Tecnologías[editar]
HTML
CSS
Casi todas las páginas contienen, al menos, un trozo de código escrito en JavaScript.
PHP
Javascript en su modalidad SSJS: Server Side Javascript (Javascript del lado del servidor).
Perl
Ruby
Python
Node.js
Capa de persistencia[editar]
Consideraciones técnicas[editar]
Una ventaja significativa es que las aplicaciones web deberían funcionar igual
independientemente de la versión del sistema operativo instalado en el cliente. En vez de crear
clientes para Windows, Mac OS X, GNU/Linux y otros sistemas operativos, la aplicación web se
escribe una vez y se ejecuta igual en todas partes. Sin embargo, hay aplicaciones inconsistentes
escritas con HTML, CSS, DOM y otras especificaciones estándar para navegadores web que pueden
causar problemas en el desarrollo y soporte de estas aplicaciones, principalmente debido a la falta
de adhesión de los navegadores a dichos estándares web (especialmente versiones de Internet
Explorer anteriores a la 7). Adicionalmente, la posibilidad de los usuarios de personalizar muchas
de las características de la interfaz (tamaño y color de fuentes, tipos de fuentes, inhabilitar
Javascript) puede interferir con la consistencia de la aplicación web.
Las aplicaciones web se ejecutan nativamente desde el navegador, pero existen algunas
aplicaciones que funcionan desde el navegador y, además, requieren la instalación de un
programa en la computadora para poder utilizarse. Estas aplicaciones se denominan aplicaciones
de internet enriquecidas. El motivo de usar este software adicional es que había muchas
funcionalidades que los navegadores no podían ofrecer, y estas tecnologías enriquecían las
aplicaciones web.
Uso empresarial[editar]
Una estrategia que está emergiendo para las empresas proveedoras de software consiste en
proveer acceso vía web a la aplicación. Para aquellas previamente distribuidas, como los
programas de escritorio, se puede optar por desarrollar una aplicación totalmente nueva o
simplemente por adaptar la aplicación para ser usada con una interfaz web. Estos últimos
programas permiten al usuario pagar una cuota mensual o anual para usar la aplicación, sin
necesidad de instalarla en la computadora del usuario. A esta estrategia de uso se la
denomina Software como servicio y a las compañías desarrolladoras se les denomina proveedores
de servicios de aplicación (ASP), un modelo de negocio que está atrayendo la atención de la
industria del software.
Ventajas[editar]
Ahorra tiempo: se pueden realizar tareas sencillas sin necesidad de descargar ni instalar
ningún programa.
Consumo de recursos bajo: dado que toda (o gran parte) de la aplicación no se encuentra
en nuestra computadora, muchas de las tareas que realiza el software no consumen
recursos nuestros porque se realizan desde otra computadora.
Colaboración: gracias a que el acceso al servicio se realiza desde una única ubicación es
sencillo el acceso y compartición de datos por parte de varios usuarios. Tiene mucho
sentido, por ejemplo, en aplicaciones en línea de calendarios u oficina.
Inconvenientes[editar]
Las aplicaciones web requieren navegadores web totalmente compatibles para funcionar.
Incluso muchas veces requieren las extensiones apropiadas y actualizadas para operar.
https://es.wikipedia.org/wiki/Aplicaci%C3%B3n_web
Definición técnica
Una página web es un documento accesible desde cualquier navegador con acceso a internet, y
que puede incluir audio, vídeo, texto y sus diferentes combinaciones.
Las primeras webs surgieron en el año 1992. Se trataban de páginas estáticas, y que sólo podían
ser accesibles para ser modificadas a través de código html. En estas webs primaban los colores,
las imágenes. Se pretendía que fuesen vistosas, pero no se preocupaban por la usabilidad y la
accesibilidad.
Muchas de esas páginas iniciales tenían música y animaciones que llegaban a resultar molestas. En
el año 1997 aparece Flash como programa pionero en la creación de webs, y estas empiezan a
desarrollarse con esta tecnología que se caracteriza por el aumento de animaciones, la lentitud de
carga y las visitas escasas.
Desde el año 2002, los primeros blogs hacen su aparición, así como algunas redes sociales con
éxito. También se empiezan a utilizar otro tipo de herramientas para la creación de páginas webs
que ya no buscan ser tan vistosas sino ir mejorando la usabilidad de los usuarios.
Uno de los sistemas de gestión de contenidos (CMS) más utilizados es WordPress. Los usuarios
buscan una mejora en el copywriting, en la usabilidad, y en evitar animaciones tediosas que
impidan que la web ralentice.
Página web estática: Se tratan de páginas en las que no se puede cambiar el contenido.
Aparece una información permanente, y el usuario no puede interactuar.
Buscadores: Son páginas para que los usuarios puedan buscar contenido de interés sobre
un tema en concreto.
Desde principios del siglo XXI, las páginas webs se han convertido en una auténtica revolución. Si
cuando surgieron en 1992 era pocos los negocios que disponían de ellas, conforme han pasado los
años la mayoría de empresas tienen páginas corporativas para mostrar sus productos y servicios.
En ellas llegan a ofrecer incluso ventas de estos servicios, y añaden un blog para demostrar lo
especialistas que son en determinadas materias. Consecuentemente, intentan que los potenciales
clientes reparen en su buen hacer para aumentar sus ventas.
Las páginas webs, junto con las redes sociales son un gran escaparate para las marcas y sus
productos.
https://economipedia.com/definiciones/pagina-web.html
Una página web está compuesta principalmente por información de un tema factible (solo texto o
módulos multimedia) así como por hiperenlaces; además puede contener o asociar hoja de estilo,
datos de estilo para especificar cómo debe visualizarse, y también aplicaciones embebidas para así
permitir interacción.
Las páginas web son escritas en un lenguaje de marcado que provee la capacidad de manejar e
insertar hiperenlaces, generalmente HTML.
Respecto a la estructura de las páginas web, algunos organismos, en especial el World Wide Web
Consortium (W3C), suelen establecer directivas con la intención de normalizar el diseño, y para así
facilitar y simplificar la visualización e interpretación del contenido.
Una página web es en esencia una tarjeta de presentación digital, ya sea para empresas,
organizaciones, o personas, así como una manera de comunicar ideas, pensamientos,
conocimientos, informaciones o teorías.3 Así mismo, la nueva tendencia orienta a que las páginas
web no sean solo atractivas para los internautas, sino también optimizadas (preparadas), para los
buscadores a través del código fuente. Forzar esta doble función puede, sin embargo, crear
conflictos respecto de la calidad del contenido.
El contenido de una página web puede ser predeterminado (página web estática) o generado al
momento de visualizarla, o solicitarla a un servidor web (página web dinámica).
Aquí la web interactúa con el usuario y es necesario que componga las páginas de manera
dinámica. Por ejemplo: cuando un usuario busca determinados productos, la aplicación realiza una
consulta a su base de datos, obtiene los resultados y compone con ellos "sobre la marcha" el
HTML que corresponde a la lista de los productos. Una vez compuesto dinámicamente el HTML de
la página entera, se devuelve al navegador exactamente igual que si hubiese sido una página
HTML estática.
JavaScript[editar]
Por otra parte, existe la posibilidad de introducir dinamismo en el lado cliente a través del
lenguaje JavaScript, diseñado específicamente para navegadores web. Habitualmente los
controles de interfaz de usuario como árboles o tablas con funciones de paginación están creados
en JavaScript.
Un navegador web puede tener una interfaz gráfica de usuario, como Internet Explorer / Microsoft
Edge, Mozilla Firefox, Google Chrome, Safari y Opera, o puede estar basado en texto, como Lynx.
Los usuarios web con discapacidades a menudo usan tecnologías de asistencia y estrategias
adaptativas para acceder a las páginas web. Los usuarios pueden ser daltónicos, pueden o no
querer usar un mouse tal vez debido a lesiones por estrés repetitivo o problemas de neuronas
motoras, pueden ser sordos y requerir subtítulos de audio, pueden estar ciegos y usar un lector de
pantalla o pantalla braille, pueden necesitar aumento de pantalla, etc.
La manera más simple de crear páginas web consiste en utilizar un simple editor de texto como,
por ejemplo, Notepad++ y editar directamente el código HTML más las hojas de estilo. Es la
manera en la que en los inicios de Internet se creaban la mayoría de las páginas web.
Sistemas CMS[editar]
Este enfoque "artesanal" es poco productivo por la gran cantidad de codificación de HTML que
implica y, además, sirve solo para webs completamente estáticas. No permite implementar cosas
como, por ejemplo, una sección de comentarios de los lectores como las que son habituales en
blogs o en periódicos digitales.
Estas herramientas son aplicaciones web creadas con lenguajes de programación como PHP y que
usan bases de datos como MySQL que no solamente permiten una edición más cómoda de los
contenidos, sino también implementar webs dinámicas.
Entre estos sistemas destacan las herramientas para la creación de blogs por ser las más
populares, lideradas por el CMS Blogger WordPress.
WordPress en particular, además de ser la herramienta líder para la creación de blogs, se está
convirtiendo en la herramienta más utilizada para la creación de webs pequeñas y medianas. 4
https://es.wikipedia.org/wiki/P%C3%A1gina_web
Algunos ejemplos de aplicaciones que usen el modelo cliente-servidor son el Correo electrónico,
un Servidor de impresión y la World Wide Web.
En esta arquitectura la capacidad de proceso está repartida entre los clientes y los servidores,
aunque son más importantes las ventajas de tipo organizativo debidas a la centralización de la
gestión de la información y la separación de responsabilidades, lo que facilita y clarifica el diseño
del sistema.
La separación entre cliente y servidor es una separación de tipo lógico, donde el servidor no se
ejecuta necesariamente sobre una sola máquina ni es necesariamente un solo programa. Los tipos
específicos de servidores incluyen los servidores web, los servidores de archivo, los servidores del
correo, etc. Mientras que sus propósitos varían de unos servicios a otros, la arquitectura básica
seguirá siendo la misma.
Una disposición muy común son los sistemas multicapa en los que el servidor se descompone en
diferentes programas que pueden ser ejecutados por diferentes computadoras aumentando así el
grado de distribución del sistema.
La red cliente-servidor es una red de comunicaciones en la cual los clientes están conectados a un
servidor, en el que se centralizan los diversos recursos y aplicaciones con que se cuenta; y que los
pone a disposición de los clientes cada vez que estos son solicitados.Esto significa que todas las
gestiones que se realizan se concentran en el servidor, de manera que en él se disponen los
requerimientos provenientes de los clientes que tienen prioridad, los archivos que son de uso
público y los que son de uso restringido, los archivos que son de sólo lectura y los que, por el
contrario, pueden ser modificados, etc. Este tipo de red puede utilizarse conjuntamente en caso
de que se esté utilizando en una red mixta
Características
En la arquitectura C/S el remitente de una solicitud es conocido como cliente. Sus características
son:
Es quien inicia solicitudes o peticiones, tiene por tanto un papel activo en la comunicación
(dispositivo maestro o amo).
Normalmente interactúa directamente con los usuarios finales mediante una interfaz gráfica de
usuario.
Al receptor de la solicitud enviada por el cliente se le conoce como servidor. Sus características
son:
Al iniciarse espera a que lleguen las solicitudes de los clientes, desempeña entonces un papel
pasivo en la comunicación (dispositivo esclavo).
Por lo general, acepta las conexiones de un gran número de clientes (en ciertos casos el número
máximo de peticiones puede estar limitado).
El Cliente y el Servidor pueden actuar como una sola entidad y también pueden actuar como
entidades separadas, realizando actividades o tareas independientes.
Cada plataforma puede ser escalable independientemente. Los cambios realizados en las
plataformas de los Clientes o de los Servidores, ya sean por actualización o por reemplazo
tecnológico, se realizan de una manera transparente para el usuario final.
Su representación típica es un centro de trabajo (PC), en donde el usuario dispone de sus propias
aplicaciones de oficina y sus propias bases de datos, sin dependencia directa del sistema central de
información de la organización.
Los servidores pueden ser apátridas o stateful. Un servidor apátrida no guarda ninguna
información entre las peticiones. Un servidor stateful puede recordar la información entre las
peticiones. El alcance de esta información puede ser global o sesión-específico. Un servidor de
HTTP para las páginas estáticas HTML es un ejemplo de un servidor apátrida, mientras que Apache
Tomcat es un ejemplo de servidor stateful.
Otro tipo de arquitectura de red se conoce como arquitectura de par-a-par porque cada nodo o
caso del programa es un “cliente” y un “servidor” y cada uno tiene responsabilidades equivalentes.
Ambas arquitecturas están en uso amplio.
Tipologia y topologia de una red
informatica
Topologia de red se refiere a una comunicación que se utiliza entre computadoras que conforman
una misma red ,para poder transmitir información,osea la forma de la que esta diseñada la red,ya
sea físicamente como lógicamente. Las topologias principales:
La red en Bus ; aquella que tiene un único canal de comunicaciones .motivo por el cual recibe el
nombre de Bus, al cual se comunican distintos dispositivos. Todos los dispositivos utilizan el
mismo canal para comunicarse entre si.
La Red Anillo: en este tipo de red, cada estación tiene una única conexión de entrada y otra de
salida. Cada estación tiene un receptor y un transmisor que hace la función de traductor pasando la
señal a la siguiente estacion
La Red Doble Anillo: anillo doble es igual a la topología de anillo, con la diferencia de que
hay un segundo anillo redundante que conecta los mismos dispositivos.
Red Árbol: los nodos están colocados en forma de árbol. Desde una visión topológica, es parecida
a una serie de redes en estrellas interconectadas salvo en que no tiene un nodo central. En cambio,
tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se
ramifican los demás nodos. Es una variación de la red en bus, la falla de un nodo no implica
interrupción en las comunicaciones
Red Malla: cada nodo está conectado a todos los nodos. De esta manera es posible llevar los
mensajes de un nodo a otro por distintos caminos. Si la red de malla está completamente conectada,
no puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus
propias conexiones con todos los demás servidores.
Red totalmente conexa En este tipo de red, cada computador se conecta al resto de computadores por
medio de cables sin ser necesario un servidor
Dirección MAC
Ir a la navegación Ir a la búsqueda
En las redes de computadoras, la dirección MAC (siglas en inglés de Media Access Control) es un
identificador de 48 bits (6 bloques de dos caracteres hexadecimales [8 bits]) que corresponde de
forma única a una tarjeta o dispositivo de red. Se la conoce también como dirección física, y es
única para cada dispositivo. Está determinada y configurada por el IEEE (los primeros 24 bits) y el
fabricante (últimos 24 bits) utilizando el organizationally unique identifier. La mayoría de los
protocolos que trabajan en la capa 2 del modelo OSI usan una de las tres numeraciones manejadas
por el IEEE: MAC-48, EUI-48, y EUI-64, las cuales han sido diseñadas para ser identificadores
globalmente únicos. No todos los protocolos de comunicación usan direcciones MAC, y no todos
los protocolos requieren identificadores globalmente únicos.
Índice
Descripción
Es también "La Dirección del Hardware de Control de acceso a soportes de un distribuidor que
identifica los equipos, los servidores, los routers u otros dispositivos de red. Al mismo tiempo es un
identificador único que está disponible en NIC y otros equipamientos de red. La mayoría de los
protocolos que trabajan en la capa 2 del modelo OSI usan una de las tres numeraciones manejadas
por el IEEE: MAC-48, EUI-48, y EUI-64, que se diseñan para ser globalmente únicos. Un equipo en
la red se puede identificar mediante sus direcciones MAC e IP."1
Las direcciones MAC son únicas a nivel mundial, puesto que son escritas directamente, en forma
binaria, en el hardware en su momento de fabricación. Debido a esto, las direcciones MAC son a
veces llamadas burned-in addresses, en inglés.
Si nos fijamos en la definición como cada bloque hexadecimal son 8 dígitos binarios (bits),
tendríamos:
6 * 8 = 48 bits únicos
En la mayoría de los casos no es necesario conocer la dirección MAC, ni para montar una red
doméstica, ni para configurar la conexión a internet, usándose esta solo a niveles internos de la
red. Sin embargo, es posible añadir un control de hardware en un conmutador o un punto de
acceso inalámbrico, para permitir solo a unas MAC concretas el acceso a la red. En este caso,
deberán conocerse las MAC de los dispositivos para añadirlos a la lista. Dicho medio de seguridad
se puede considerar un refuerzo de otros sistemas de seguridad, ya que teóricamente se trata de
una dirección única y permanente, aunque en todos los sistemas operativos hay métodos que
permiten a las tarjetas de red identificarse con direcciones MAC distintas de la real.
Ethernet
802.3 CSMA/CD
MAC opera en la capa 2 del modelo OSI, encargada de hacer fluir la información libre de errores
entre dos máquinas conectadas directamente. Para ello se generan tramas, pequeños bloques de
información que contienen en su cabecera las direcciones MAC correspondiente al emisor y
receptor de la información.
La dirección de loopback se puede usar para probar el funcionamiento de TCP/IP haciendo ping a
127.0.0.1, al recibir una respuesta se puede asumir que el software asociado al protocolo está bien
(el estado del hardware, como la tarjeta de red, no lo conocemos con esta prueba, ya que no llega
a salir del propio equipo).
Con fines educativos se suelen instalar servidores locales http como XAMPP, LAMP o WAMP a los
cuales se tendrá acceso con localhost o 127.0.0.1 desde el navegador.
Localhost es el nombre comúnmente utilizado para designar el equipo que estamos utilizando.
Hace referencia a la computadora o dispositivo que estamos usando en un momento concreto. La
traducción literal del término sería “huésped local”, aunque es más correcto definirlo como
servidor o dispositivo local.
Que es Host?
El término host o anfitrión se usa en informática para referirse a las computadoras u otros
dispositivos (tabletas, móviles, portátiles) conectados a una red que proveen y utilizan servicios de
ella. Los servidores deben utilizar anfitriones para tener acceso a la red y pueden, a su vez, pedir
los mismos servicios a otras máquinas conectadas a la red. Los anfitriones son, por tanto,
dispositivos monousuario o multiusuario que ofrecen servicios de transferencia de archivos,
conexión remota, servidores de base de datos, servidores web, etc.
De forma genérica, podemos decir que un anfitrión es todo equipo informático que posee una
dirección IP y que se encuentra interconectado con uno o más equipos y que funciona como el
punto de inicio y final de las transferencias de datos.1
También es descrito como el lugar donde reside un sitio web, un anfitrión de Internet tiene por lo
general una dirección de Internet única llamada "dirección IP" y un nombre de dominio único o
nombre de anfitrión (host name).
¿Que es un dominio?
Sin la ayuda del sistema de nombres de dominio, los usuarios de Internet tendrían que acceder a
cada servicio web utilizando la dirección IP del nodo (por ejemplo, sería necesario utilizar
http://142.250.184.4/ en vez de http://google.com). Además, reduciría el número de webs
posibles, ya que actualmente es habitual que una misma dirección IP sea compartida por varios
dominios.
Un dominio en Internet es el nombre exclusivo y único que se le da a un sitio web para que
cualquier internauta pueda visitarlo e identificarlo
el contenido de tu blog;
optimización SEO;
Como ves, este término engloba todos estos factores importantes, pero ¿qué es? y ¿por qué es
tan valioso? No te preocupes, aquí te enseñaremos todo lo que necesitas saber acerca del dominio
web, así que ¡continua leyendo!
Es el nombre único e irrepetible que se le da a un sitio en Internet para que las marcas
(propietarias de dichas páginas) sean identificadas de forma cómoda y sencilla por los usuarios y
sus clientes.
Al considerarse como exclusivo, solo habrá una empresa, compañía, organización o persona con
dicho nombre. Para asegurar esto, existen organizaciones encargadas de los dominios en Internet,
tales como IANA e ICANN.
Su estructura consta de dos niveles. Sin embargo, en el inicio existe un dominio raíz, que es solo un
nombre vacío del que salen los demás dominios de Internet. Ahora bien, ¿en qué consisten?
Primer nivel
Del dominio raíz sale este primer nivel. Estos pueden ser: .com, .mx, .org, entre otros.
Segundo nivel
Subdominio
Es un derivado del dominio de segundo nivel, que se crea añadiendo una o varias palabras
separada(s) por un punto. El www. es el subdominio más común.
Sin embargo, también se puede agregar otros para permitir el acceso directo a una determinada
sección de la página web. Por ejemplo, si tomamos el siguiente subdominio de Teachable
entonces, nos llevará a nuestra universidad: universidad-rockcontent.teachable.com
Te recomendamos que para crear subdominios uses nombres cortos y palabras claves que tengan
relación con el contenido que quieras mostrar.
Hay tres tipos —o extensiones — de dominios que puedes utilizar para tu empresa y dependerá de
lo que más adecuado para tu organización.
Dominios geográficos
entre otros.
Son los más utilizados y comunes a nivel mundial. Estos no se ajustan a un país determinado y
definen cuál es el fin del sitio web. Ejemplo:
.net, su significado es red y se relaciona con empresas de servicios de Internet o también para
asociar un dominio que ya existe con la terminación .com;
.mil, su uso es únicamente para entidades que pertenecen a las Fuerzas Armadas de un país;
entre otros.
Los dominios de tercer nivel son aquellos que resultan tras combinar un dominio gTLD y uno
ccTLD.
En otras palabras, tienen la misma finalidad que los dominios genéricos, pero se limitan
territoralmente. Entonces, sería:
.com.mx, para entidades comerciales mexicanas;
El protocolo de internet (en inglés: Internet Protocol; cuya sigla es IP) es un protocolo de
comunicación de datos digitales clasificado funcionalmente en la capa de red según el modelo
internacional OSI.
Índice
Descripción funcional
El diseño del protocolo IP se realizó presuponiendo que la entrega de los paquetes de datos sería
no confiable. Por ello, IP tratará de realizarla del mejor modo posible, mediante técnicas de
enrutamiento, sin garantías de alcanzar el destino final pero tratando de buscar la mejor ruta
entre las conocidas por la máquina que esté usando IP.
Los datos en una red basada en IP son enviados en bloques conocidos como paquetes o
datagramas (en el protocolo IP estos términos se suelen usar indistintamente). En particular, en IP
no se necesita ningún intercambio de información de control previa a la carga útil (datos), como sí
que ocurre, por ejemplo, con TCP.
IP provee un servicio de datagramas no fiable (también llamado del "mejor esfuerzo": lo hará lo
mejor posible, pero garantizando poco). IP no provee ningún mecanismo para determinar si un
paquete alcanza o no su destino y únicamente proporciona seguridad (mediante checksums o
sumas de comprobación) de sus cabeceras y no de los datos transmitidos. Por ejemplo, al no
garantizar nada sobre la recepción del paquete, este podría llegar dañado, en otro orden con
respecto a otros paquetes, duplicado o simplemente no llegar. Si se necesita fiabilidad, esta es
proporcionada por los protocolos de la capa de transporte, como TCP. Las cabeceras IP contienen
las direcciones de las máquinas de origen y destino (direcciones IP), direcciones que serán usadas
por los enrutadores (routers) para decidir el tramo de red por el que reenviarán los paquetes.
El IP es el elemento común en el Internet de hoy. El actual y más popular protocolo de red es IPv4.
IPv6 es el sucesor propuesto de IPv4; poco a poco Internet está agotando las direcciones
disponibles por lo que IPv6 utiliza direcciones de fuente y destino de 128 bits, muchas más
direcciones que las que provee IPv4 con 32 bits. Las versiones de la 0 a la 3 están reservadas o no
fueron usadas. La versión 5 fue usada para un protocolo experimental. Otros números han sido
asignados, usualmente para protocolos experimentales, pero no han sido muy extendidos.
Direccionamiento IP y enrutamiento
El enrutamiento consiste en encontrar un camino que conecte una red con otra y, aunque es
llevado a cabo por todos los equipos, es realizado principalmente por routers, que no son más que
computadoras especializadas en recibir y enviar paquetes por diferentes interfaces de red, así
como proporcionar opciones de seguridad, redundancia de caminos y eficiencia en la utilización de
los recursos.
Dirección IP
Una dirección IP es un número que identifica de manera lógica y jerárquicamente a una interfaz de
un dispositivo (habitualmente una computadora) dentro de una red que utilice el protocolo de
Internet (Internet Protocol), que corresponde al nivel de red o nivel 3 del modelo de referencia
OSI. Por ejemplo, si un equipo dispone de una tarjeta de red Ethernet y otra WiFi, tendrá una
dirección IP asignada a cada una si las está usando. Dicho número no se ha de confundir con la
dirección MAC que es un número físico que es asignado a la tarjeta o dispositivo de red (viene
impuesta por el fabricante y no varía en toda su vida útil), mientras que la dirección IP puede
cambiarse, por ejemplo, cambiando la red a la cual está conectado el equipo.
El usuario al conectarse desde su hogar a Internet utiliza una dirección IP. Esta dirección puede
cambiar al reconectar. A la posibilidad de cambio de dirección de la IP se denomina dirección IP
dinámica. Existe un protocolo para asignar direcciones IP dinámicas llamado DHCP (Dynamic Host
Configuration Protocol).
Los sitios de Internet que por su naturaleza necesitan estar permanentemente conectados,
generalmente tienen una dirección IP fija (IP fija o IP estática); es decir, no cambia con el tiempo.
Los servidores de correo, dns, ftp públicos, servidores web, conviene que tengan una dirección IP
fija o estática, ya que de esta forma se facilita su ubicación.
El modelo de interconexión de sistemas abiertos (OSI, por sus siglas en inglés) es un modelo
conceptual, creado por la Organización Internacional de Normalización (ISO), que permite que
diversos sistemas de comunicación se comuniquen usando protocolos estándar. En resumidas
cuentas, el modelo OSI proporciona a los diferentes sistemas informáticos un estándar para
comunicarse entre sí.
El modelo OSI se puede entender como un lenguaje universal de comunicación entre sistemas de
redes informáticas que consiste en dividir un sistema de comunicación en siete capas abstractas,
apiladas en vertical.
El modelo de interconexión de sistemas abiertos (ISO/IEC 7498-1), conocido como “modelo OSI”,
(en inglés, Open Systems Interconnection) es un modelo de referencia para los protocolos de la
red (no es una arquitectura de red), creado en el año 1980 por la Organización Internacional de
Normalización.1 Se ha publicado desde 1983 por la Unión Internacional de Telecomunicaciones
(UIT) y, desde 1984, la Organización Internacional de Normalización (ISO) también lo publicó con
estándar.2 Su desarrollo comenzó en 1977.3
Es un estándar que tiene por objetivo conseguir interconectar sistemas de procedencia distinta
para que estos pudieran intercambiar información sin ningún tipo de impedimentos debido a los
protocolos con los que estos operaban de forma propia según su fabricante.
El modelo OSI está conformado por 7 capas o niveles de abstracción. Cada uno de estos niveles
tendrá sus propias funciones para que en conjunto sean capaces de poder alcanzar su objetivo
final. Precisamente esta separación en niveles hace posible la intercomunicación de protocolos
distintos al concentrar funciones específicas en cada nivel de operación.
¿Qué es DNS?
Cada dispositivo conectado a Internet tiene una dirección IP única que otros equipos pueden usar
para encontrarlo. Los servidores DNS suprimen la necesidad de que los humanos memoricen
direcciones IP tales como 192.168.1.1 (en IPv4) o nuevas direcciones IP alfanuméricas más
complejas, tales como 2400:cb00:2048:1::c629:d7a2 (en IPv6).
Historia
Los administradores de páginas web y proveedores de contenido comenzaron a optimizar
sitios web en los motores de búsqueda a mediados de la década de 1990, tan pronto los
motores de búsqueda comenzaban a catalogar la primera Internet. En un principio, sitios
como Yahoo! ofrecían la inclusión a los sitios que solicitasen motu proprio su indexación, que
era manual.
Al comienzo, todo lo que los administradores de páginas web tenían que hacer era enviar la
dirección de una página web, o URL, a los diferentes motores, los cuales enviarían una araña
web o rastreador web para inspeccionar ese sitio, extraer los vínculos hacia otras páginas que
tenía esa web y devolver la información recogida para ser indexada. El proceso involucra a un
araña web perteneciente al motor de búsqueda, que descarga una página y la almacena en
los servidores de la empresa, donde un segundo programa, conocido como indexador, extrae
información sobre la página. Entre ella, las palabras que contiene y dónde están localizadas,
la relevancia de palabras específicas y todos los vínculos que contiene la página, los cuales
se almacenan para ser rastreados posteriormente por la araña web.
Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas bien
posicionadas y visibles para los motores de búsqueda, lo que creó una oportunidad para los
usuarios de técnicas SEO de sombrero blanco y sombrero negro (white hat y black hat). De
acuerdo con los análisis del experto Danny Sullivan, el término optimización de motores de
búsqueda comenzó a usarse en agosto 1997, 2 por John Audette y su compañía, Multimedia
Marketing Group, documentado en una página del sitio web de la compañía.
Las primeras versiones de los algoritmos de búsqueda se basaban en la información
proporcionada por los administradores de las páginas web, como las palabras clave de
las metaetiquetas, o ficheros indexados en motores como ALIWEB. Las metaetiquetas ofrecen
una guía para el contenido de cada página. Usar metadatos para indexar una página fue un
método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web
en las metaetiquetas podía ser una representación no precisa del contenido real de la página
web. Unos datos imprecisos, incompletos e inconsistentes en las metaetiquetas podían
causar, y causaron, que ciertas páginas se posicionaran muy alto para búsquedas
irrelevantes.3 Los proveedores de contenido web también manipulaban una serie de atributos
en el código fuente HTML de sus páginas en un intento de posicionarlas bien en los motores
de búsqueda.4 Otros sitios, como Altavista, admitían pagos por aparecer en los primeros
lugares o daban más importancia a los sitios más antiguos.
Debido a la importancia de factores como la densidad de palabras clave, la cual dependía
totalmente del administrador de la página web, los primeros motores de búsqueda sufrieron el
abuso y la manipulación de las clasificaciones. Para proveer de mejores resultados para sus
usuarios, los motores de búsqueda tenían que adaptarse para asegurar que sus páginas de
resultados mostraran las búsquedas más relevantes en vez de páginas no relacionadas,
llenas de palabras clave por administradores de páginas web sin escrúpulos. Contando con
que el éxito y popularidad de un motor de búsqueda están condicionados por su capacidad de
producir los resultados más relevantes para cualquier búsqueda, permitir que los resultados
fueran falsos haría que los usuarios optaran por otros motores de búsqueda. Los motores de
búsqueda respondieron desarrollando algoritmos de clasificación más complejos para
clasificar sitios web, tomando en cuenta factores adicionales para que fueran más difíciles de
manipular por los administradores web.
Los estudiantes graduados en la Universidad de Stanford, Larry Page y Sergey Brin,
desarrollaron Backrub, un motor de búsqueda que se basaba en un algoritmo matemático que
puntuaba la relevancia de páginas web. PageRank fue el nombre del número calculado por el
algoritmo, una función que cuenta con la cantidad y fuerza de vínculos entrantes. PageRank
estima la posibilidad de que una página web sea vista por un usuario web que navega
aleatoriamente por la web, y sigue vínculos de una página a otra. Realmente, esto significa
que algunos vínculos son más fuertes que otros, por lo que una página con PageRank más
alto tiene más posibilidad de ser visitada por un usuario aleatorio.
Page y Brin fundaron Google en 1998. Google atrajo a seguidores fieles entre el creciente
número de usuarios de Internet, a los cuales les gustó su diseño sencillo, motivado por el
hecho de que los fundadores no sabían HTML y se limitaron a colocar un cuadro de búsqueda
y el logotipo de la empresa.
Se consideraron factores externos a la página (PageRank y análisis de vínculos) a la par que
factores internos (frecuencia de palabra clave, etiquetas meta, cabeceras, vínculos y
estructura del sitio web, velocidad de carga de la página), para permitir a Google evitar el tipo
de manipulación vista en motores de búsqueda que solo consideraban factores internos de la
página para las clasificaciones.
En el año 2000 Google lanzó la Google Toolbar, una barra de herramientas que entre otras
cosas mostraba la métrica pública del PageRank. El PageRank de la barra de Google va de 0
a 10, siendo 10 el máximo, una valoración alcanzada por muy pocas webs. El PageRank
público se fue actualizando periódicamente hasta diciembre de 2013, cuando tuvo lugar la
última actualización hasta la fecha.
Aunque el PageRank era más difícil de manipular, los administradores de páginas webs ya
habían desarrollado herramientas de creación de vínculos y planes para influenciar el motor
de búsqueda Inktomi, y estos métodos también fueron eficaces para manipular el PageRank.
Mucho sitios se centraron en intercambiar, comprar y vender vínculos, a menudo a gran
escala. Algunos de estos sistemas, o granjas de vínculos, incluían la creación de miles de
sitios con el único propósito de crear vínculos basura (técnicas de linkbuilding).
En 2004, los motores de búsqueda habían incorporado un amplio número de factores sin
publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de
vínculos. En junio de 2007, Hansell, del New York Times, declaró que los motores de
búsqueda estaban usando más de 200 factores. Los principales motores de búsqueda,
Google, Bing y Yahoo, no publican los algoritmos que usan para posicionar páginas web.
Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimización de
los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los
motores de búsqueda pueden proveer información para entender mejor a los motores de
búsqueda.
En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario,
dependiendo de su historial en búsquedas previas, Google ofrecía resultados personalizados
para usuarios registrados. En 2008, Bruce Clay dijo “el posicionamiento está muerto” debido a
la búsqueda personalizada. Opinaba que resultaría irrelevante discutir como un sitio web se
posiciona, puesto que su posición variaría en función de cada usuario, de cada búsqueda.
En 2005, Google también anunció una campaña en contra de la compra de enlaces con el fin
de mejorar posiciones en el buscador 5 y sugirió un nuevo atributo a añadir a estos enlaces
comerciales, era rel="nofollow" (ejemplo de uso <a href="https://otrodominio.com"
rel="nofollow">Visita esta web</a>). El atributo "nofollow" ofrece a los webmasters un modo
de indicar a los motores de búsqueda "No seguir los enlaces de esta página" o "No seguir este
enlace concreto"6
En 2007 Matt Cutts afirmó que el uso de este atributo en los enlaces internos de una web
también sería válido y efectivo para evitar transmitir PageRank hacia páginas internas de la
propia web.7 El resultado fue que hubo un uso generalizado de este atributo en los enlaces
internos de los sites para alterar la distribución interna del PageRank.
Dado la generalización de esta técnica por parte de los webmasters, en 2009 Google publicó
que había tomado medidas para cambiar la manera en que valora y contabiliza estos enlaces
nofollow a la hora de repartir el PageRank, y que ahora sí se tendrían en cuenta a la hora de
distribuir PageRank, aunque no traspasase valor a la url de destino si se diluía el PageRank
entre estos enlaces.8 Con esto intentaba no fomentar que se usara este atributo nofollow con
el único fin de modificar la distribución del PageRank a través de los enlaces internos de una
web.
Para poder seguir evitando la distribución de PageRank entre urls poco de una web, algunos
SEOs y webmasters desarrollaron distintas técnicas alternativas que cambian los enlaces
nofollow, que antes era válido, por otras etiquetas HTML (como < span > o < div >) que
Google no contabiliza como enlaces, pero que para los usuarios se comportan de la misma
manera que un enlace. Para ello se hace uso de Javascript y ofuscado la url con una
codificación en Base64,9 permitiendo controlar de esta manera la distribución de PageRank sin
tener que usar el "polémico" atributo nofollow.
En diciembre de 2009, Google anunció que usaría el historial de búsqueda de todos los
usuarios para elaborar los resultados de búsqueda.
Google Instant, búsqueda en tiempo real, fue introducido a finales de 2010 en un intento de
hacer los resultados de búsqueda más relevantes y recientes. Históricamente,
administradores de web han gastado meses o incluso años en optimizar un sitio web para
mejorar su posicionamiento. Con el aumento en popularidad de las redes sociales y blogs, los
principales motores hicieron cambios en sus algoritmos para permitir contenido fresco y
posicionar rápidamente en los resultados de búsqueda.
En febrero de 2011, Google anunció la actualización "Panda", la cual penaliza sitios web que
contengan contenido duplicado de otros sitios y fuentes. Históricamente las páginas web han
copiado contenido de otras beneficiándose en la clasificación de los motores de búsqueda
aplicando esta técnica, sin embargo, Google implementó un nuevo sistema en el que penaliza
a las páginas web cuyo contenido no es único.
En abril del 2012, Google anunció la actualización "Penguin" cuyo objetivo era penalizar a
aquellos sitios que usaban técnicas manipuladoras para mejorar sus rankings. (Spam SEO o
Spam Web).
En septiembre de 2013, Google anunció la actualización "Colibrí", un cambio en el algoritmo
diseñado para mejorar el procesamiento del lenguaje natural de Google y la comprensión
semántica de páginas web. (eficiencia del HTML5).