Hospedagem de Sites

Hospedagem da Webpubli é disponibilizada por uma das maiores empresas do mercado: “Softlayer”.

Sem intermediários, sem superlotação de site, sem problemas com tráfego ou lentidão.

Todos os nossos servidores se encontram em ligações de alta velocidade, protegidos contra qualquer tipo de catástrofe, estão em “cloud” e são servidores “verdes”.

Hospedagem e a Caractristicas do Datacenter:

» Suporte para Tier 3 com dual feed
» Conectividade de fibra óptica a Gigabit redundante
» Suporte para servidores de alta densidade
» Estrutura anti-sísmica
» UPS modular redundante N+1
» UPS adicional de backup
» Sistema de bastidores em Cold/Hot isle
» Sistema de Video-Vigilância CCTV
» Monitorização e arquivo constante do sistema CCTV
» Ar condicionado modular InRow
» Arrefecimento auxiliar de emergência
» Piso elevado de sulfato de cálcio antiestático
» Controlo de Humidade e Temperatura
» Controlo de acessos com sistema biométrico
» Portas blindadas corta-fogo
» Gerador a diesel de arranque automático
» Zona de descarga de equipamento
» Detecção e Extinção de incêndio com gás inerte
» Detecção de Gases Tóxicos
» Detecção de Inundação

Hospedagem com Uptime 99.9%

O uptime dos nossos clientes é bastante importante para nós. Todos os nossos planos oferecem um uptime de 99.9%. Os nossos servidores são verificados a cada minuto e, na eventualidade de ocorrer alguma falha, resolvemos o problema em tempo record.

Hospedagem sem superlotação e de qualidade!

Veja os motivos para se ter uma boa hospedagem de site ou loja virtual:

Server Timeouts: se uma search engine de passagem requisita uma página e essa requisição não é atendida (por timeout do servidor ou paciência do crawler – sim eles também têm paciência e não esperam pra sempre), com certeza a página não vai para as SERPs (páginas de resultados de busca) ou vai ter um péssimo ranking, já que nenhum conteúdo foi encontrado.

Velocidade: não é tão ruim quanto os server timeouts, mas é um problema. Como dito no outro item, os crawlers têm paciência, se uma página demora a carregar, ele desiste. Mas isso é um problema maior para os usuários, que não vão ficar esperando, para sempre, uma página carregar e vão embora.

Endereço IP compartilhado: aqui é um ponto um pouco controverso, mas alguns SEOs acreditam que isso é um problema. O ponto é que se a vizinhança do seu site for spammer ou de baixa qualidade, isso poderia baixar a confiança e credibilidade do seu site. Ainda, links diretos no IP deixariam usuários perdidos.

IP bloqueado: no processamento de páginas da web, os crawlers podem bloquear um endereço IP específico ou faixa de endereços ao invés de bloquear um site especificamente. No MSN/Live você pode verificar quais sites compartilham o mesmo IP fazendo a busca: “IP:um-endereço-ip”.Reconhecimento de bots: para proteger o conteúdo do site, você pode restringir o número de requisições de uma página dentro de um determinado tempo. Isso pode atrapalhar o crawler a a fazer o seu trabalho bloqueando sua navegação. É necessário cuidado quando se determina isso no site.

Largura de Banda/Limite de Transferência: muitos servidores limitam quantidade de transferência que um site pode ter. Isso pode eventualmente tirar um site do ar se algum conteúdo tornar-se muito popular e o site receber muitas visitas. Com o site fora do ar, nem pessoas, nem crawlers vão conseguir acessar o site – SEO por água a baixo.

Geoposicionamento do servidor: isso não é um problema, mas uma recomendação de boa prática. As search engines usam, também, a localização do servidor – localização do site, portanto – para determinar a relevância de uma resposta à uma busca, considerando o fator busca local. Como a busca local acaba sendo o objetivo de muitos sites, ou seja, oferecer produtos/serviços para uma região ou país, é recomendado hospedar o site no país onde está o público alvo do site.

 

 

Relacionados