El go humaniza los algoritmos

A finales de mayo, el algoritmo de inteligencia artificial AlphaGo -desarrollado por Deep Mind, una filial de Google- derrotaba en tres partidas el mejor jugador del mundo de go, el chino, de 19 años, Ke Jie. Un poco más de un año antes, había derrotado Lee Se- duelo, jugador coreano y toda una leyenda del go. Entre los dos enfrentamientos, el algoritmo jugó 51 partidas en línea de manera anónima. La máquina ganó 50 partidas y, según Deep Mind, la que perdió fue por
un problema con la conexión a internet.

Quizás sorprende que alguien escogiera un juego oriental, muy desconocido en Occidente, para dedicarle un algoritmo específico. El go es un juego “con unas reglas muy simples, pero muy complicado conceptualmente”, dice Pablo Carlos, campeón de España en 2008 y en 2016. Es un juego posicional para dos jugadores, donde el objetivo es conseguir el territorio más posible colocando unas piedras blancas y negras de forma alternativa sobre las intersecciones de un tablero. Todas las piedras tienen exactamente las mismas propiedades y una vez colocadas ya no se mueven de posición. Los territorios se delimitan por piedras del mismo color en contacto entre ellas. Gana el jugador los territorios y piedras cuyo sumen el mayor número de intersecciones de las 361 de que se compone el tablero.

Pero por encima de todo, el go era la última frontera -en cuanto a juegos de tauler- a la que se enfrentaba la inteligencia artificial. “Era el único en el que una máquina no había sido capaz de ganar a un jugador humano”, explica Toni Juan, profesor de Arquitectura de Computadores de la UPC.

Hace más de veinte años que la inteligencia artificial se ocupó del ajedrez. En 1996 y en 1997, Deep Blue, el algoritmo de IBM, se enfrentó en una serie de partidas controvertidas a Gary Kasparov, el campeón del mundo. Y es que, como dice José Manuel Vega -presidente de la Asociación Andaluza de Go-, “entre nosotros es mucho más popular y tienen más prestigio el ajedrez, que es el juego occidental por excelencia”.

Sea como sea, la realidad es que también había retos técnicos para que ningún ordenador no hubiera podido derrotar a un jugador de go. Mientras que “el ajedrez es un juego más analítico, porque su árbol de decisión -la cantidad de configuraciones del tauler- es mucho menor, porque se juega en un tablero más pequeño, en el go estas configuraciones son 10170. Jugar al go es como jugar al ajedrez en cuatro tableros a la vez “, dice Pablo Carlos. Un árbol de decisión más pequeño hace que calcular todos los movimientos posibles sea un poco más asequible, tanto para las personas como para los ordenadores. “En el go es imposible. No existe ordenador capaz de calcular 10170moviments “, asegura Carlos.

Deep Mind reconoce que esta complicación añadida -y el hecho de que su fundador, Demis Hassabis, sea un enamorado de los juegos mentales- ha sido uno de los motivos que les llevó a diseñar su algoritmo. “El go ha sido un gran desafío durante mucho tiempo, porque no es posible utilizar la fuerza bruta como solución. En vez de eso, jugar bien se basa en algo más parecido a la intuición y la creatividad “, dijo un portavoz de la compañía en La Vanguardia. El go ha obligado a la inteligencia artificial a intentar pensar como nosotros, y no sólo a tener una enorme capacidad de cálculo.

Además, a Deep Mind se muestran convencidos de que el resultado final será que “las técnicas que sustentan AlphaGo podrán aplicarse a una amplia gama de campos, aumentando el conocimiento humano existente y permitiendo nuevos descubrimientos que de otro modo habrían sido imposibles “.

En este sentido, Pablo Carlos también cree que los avances en inteligencia artificial que se han conseguido gracias al go serán fundamentales en el desarrollo de este campo. “La inteligencia artificial que salga de aquí será una auténtica inteligencia, porque AlphaGo ha aprendido a pensar como nosotros”, dice el campeón de España. Más escéptico se muestra Toni Juan quien opina que “Deep Mind adorna mucho los éxitos de su algoritmo”. El profesor de la UPC cree que todavía estamos lejos de que la inteligencia artificial sea parecida a la humana: “Estamos en un momento en que todavía se desarrollan algoritmos específicos para tareas concretas, y aún estamos lejos de tener máquinas que aprendan a pensar por sí solas “.

Algoritmos de Internet

Vivimos rodeados de algoritmos que afectan a nuestro comportamiento. Las noticias que nos llegan a Facebook, los vídeos que vemos en YouTube, la serie que miramos a Netflix, el apartamento de Airbnb que alquilamos para vacaciones o el restaurante donde vamos a cenar serían ejemplos de las decisiones que los algoritmos de recomendación toman por nosotros. En algunos casos somos conscientes, en otros ni nos lo imaginamos, a menudo preferimos ignorarlo, pero en todos los casos no tenemos ni la más remota idea de cómo funcionan segun indica una agencia seo barcelona.

El pasado miércoles en el programa de radio “El Món a RAC1”, coincidí con Paula Gonu. Supongo que no sabe de quién estoy hablando. Yo no sabía quién era hasta que me dijeron que Jordi Basté el entrevistaría y busqué su nombre en Google. Resulta que Paula Gonu es una creadora de contenidos en la red. No le gusta el término youtub aunque lo es (tiene un canal con más de un millón seguidores, con vídeos con borde 5 millones de visualizaciones), es también una Instagrammer (1,6 millones de seguidores), una Tweetstar (75.000 seguidores) y es una marca con tienda online. Y seguro que me dejo cosas. Pero el tema no es ella, soy yo.

El momento mágico de la entrevista fue cuando se sorprendió que la conociéramos; tiene muy interiorizado que los que recordamos que en el segundo canal de la tele hay decíamos UHF, es imposible que sepamos quién es si no es por vía hijos adolescentes. Tuve que admitir que era porque me había preparado la entrevista y que lo primero que había hecho era buscarla en Google. Pero como puede ser que alguien como yo que vive, trabaja y estudia en la red no conociera alguien con tanta presencia e influencia como la Paula? ¿Por qué no me ha llegado ni un solo retuit de un tuit suyo? Como es que nunca me ha aparecido un vídeo suyo entre los recomendados? No soy yo, es el algoritmo.

Son omnipresentes, opacos e invisibles. No sabemos cómo funcionan pero controlan nuestra vida.

Los sistemas de recomendación de los diferentes proveedores de contenidos en la red nos conocen muy bien tanto a mí como a la Paula- y han decidido ponernos en burbujas separadas. Saben perfectamente que un vídeo que empiece por “Hola gente guapa” y donde salga una chica bailando reggaetón no es para mí. En cambio saben hacerlo llegar a los casi cinco millones de usuarios que lo han visto en YouTube. El mismo sistema funciona en el resto de plataformas y su éxito depende del grado de acierto de sus algoritmos. El 70% del contenido que consumimos en Netflix viene por las recomendaciones que nos hace de acuerdo con nuestro patrón de visionado y contrariamente a lo que podamos pensar, en nuestro muro de Facebook no está todo lo que publican nuestros “amigos” sino que sólo aparece una selección de lo que su algoritmo cree que nos puede interesar más.

En 2015, investigadores de la University of llinois, de la California State University y de la Michigan University realizaron un estudio con usuarios de Facebook y se sorprendieron al descubrir que el 62,5% de desconocía la existencia de un algoritmo de selección de noticias que decidía que se mostraba en su muro. Los investigadores desarrollaron otro algoritmo que, este sí, mostraba todo lo que sus contactos se publicaban. Los participantes se sintieron molestos al saber que había mensajes y publicaciones de amigos cercanos y familiares que no aparecían normalmente en su muro. Hasta entonces, la percepción subjetiva de los participantes en estos casos era que sus contactos les habían excluido de sus actividades.
El algoritmo de Facebook utiliza más de 100.000 factores diferentes a la hora de escoger el mejor contenido entre la enorme cantidad de información que entre todos vertemos: tipo de contenido, reacciones de nuestros contactos, conversaciones más frecuentes, etc. Tenemos ideas de cómo lo hace pero nadie lo sabe a ciencia cierta, lo mismo que ocurre con el Page Rank (el algoritmo de clasificación de páginas web de Google) con el recomendador de vídeos de YouTube o con el motor de Netflix.

Este último algoritmo ha sido protagonista el mes pasado de dos noticias que podrían ser el guión de un episodio de Black Mirror. La primera fue a causa de un tuit donde Netflix decía: “A las 53 personas que han visto A Christmas Prince cada día de los últimos 18: que os duele?”. Un tuit orwelliano que demuestra cuánto sabe el algoritmo de Netflix sobre nuestros hábitos de consumo. La otra la hacía pública en la web Reddit usuario anónimo KingSalamander, un estudiante que se pasó el verano pegado a Netflix. Explica que vio las nueve temporadas de la serie The Office en menos de diez días y cuál no fue su sorpresa al recibir un correo electrónico donde le decías que habían notado un patrón de visionado extraño y le preguntaban si estaba bien. Comenta que al principio se asustó, pero al final lo hizo sentir bien que alguien se tomara la molestia de enviarle un correo preocupándose por su salud mental. Segons indica un seo barcelona

Marketing Online

Son pocas las agencias de marketing online que actualmente no trabajen el posicionamiento web. De repente, las agencias han visto que el SEO es fundamental para dotar de visibilidad a cualquier sitio web. Es por ello, que muchas agencias de comunicación están reciclando y especializando en esta rama del marketing digital. Todas estas agencias que empiezan ahora a interesarse por el posicionamiento web y las herramientas SEO tienen una cosa en común. Una misma pregunta que constantemente realizan los especialistas en posicionamiento web:

 

“¿Cuáles son las herramientas SEO que necesito para iniciarme en el posicionamiento web?”

 

La respuesta de los diferentes especialistas siempre cambia un poco porque hay decenas de herramientas SEO pero siempre hay 5 que todos tienen en común y ninguna se deja de llamar.

 

 

1.GOOGLE SEARCH CONSOLE: Esta herramienta de Google -antiguamente llamada Google Webmaster Tools- está destinada por los administradores de un sitio web. Es una herramienta fundamental para trabajar el posicionamiento web ya que nos da infinidad de información sobre nuestra página.

Un ejemplo de esto lo podemos ver en la pestaña de “Mensajes” donde allí recibiremos todas las penalizaciones manuales que nos haga Google y, gracias a detectarlas a tiempo, podremos ejecutar los cambios pertinentes.

Otro punto importante para principiantes en esto del SEO y del Search Console es el apartado “Segmentación Internacional”. Allí verás que junto a una pestaña llamada “Idioma” hay otra llamada “País”. Por defecto, si no lo hemos tocado, viene Estados Unidos. Es importante cambiarla en el país donde vuestra web quiera tener mayor incidencia. En el caso de nuestra web, catapings.cat, hemos puesto España ya que queremos que la web focalice sus fuerzas en las búsquedas hechas desde España, concretamente Cataluña.

Pestaña de país al google search console

Otro apartado muy importante e interesante es el de “Índice de Google”. Allí en la pestaña de “Estado del Índice” nos permite ver el total de páginas que tenemos indexadas en Google.

Y no nos podemos dejar de comentar una función básica del Search Console y de máxima incidencia en el trabajo del posicionamiento web como es la función de forzar una indexación de Google para cualquiera de nuestros sitios web o URLs. Para hacerlo tenemos que ir a la pestaña “Explora como Google” y dirigirnos al punto de “Rastreo”.

2.SEOBOX: Herramienta indispensable monitorear y posicionar webs. Es un aparato de pago que tiene diferentes módulos que se contratan aparte y que constan -cada uno de ellos- de diferentes precios.

Regístrate en este enlace por sólo 15 € / mes
Uno de ellos es el Rankbox, un módulo de monitorización de las posiciones de tus palabras clave mientras, también, optimiza tu SEO Onpage.
Otro de los módulos es el llamado Geobox, encargado de llevar el control por ciudades sobre el estado de tu posicionamiento local dentro del territorio español.

La tercera función es la llamada Cachébox que es la que mide la frecuencia con la que Google visita y almacena tu página.
Y ya por último, tenemos el módulo CTEBOX que es lo que te permite experimentar con el CTR en las SERPIENTES y te ayuda en su optimización gracias a las estadísticas que miden la experiencia del usuario.

3.SCREAMING FROG: Esta herramienta SEO es una aplicación de escritorio que te permite rastrear los sitios webs que le indiques siguiendo todos sus enlaces. Su funcionamiento es muy similar al que emplean los robots de Google. La herramienta, aunque es de pago, tiene una versión gratuita que te permite analizar hasta 500 URLs; un número bastante amplio y suficiente para analizar en profundidad la mayoría de webs en las que trabajamos.

ScreamingFrog nos detalla de manera muy visual y ordenada cierta información de nuestro sitio web como: el título, la descripción, los h1 y h2 y los diferentes estados de la página web. En esta herramienta SEO podemos ver, por ejemplo, si tenemos alguna URL que se sobrepasa los 115 caracteres recomendables, cuáles son las páginas que tenemos con títulos duplicados o sin título o, podremos saber si tenemos alguna imagen sin el “alto” o con un peso demasiado grande y pendiente de optimización.

Captura de pantalla del programa screamingfrog

 

4.AHREFS: Esta herramienta de SEO de pago está especializada, sobre todo, en el área de linkbuilding, ya que tiene una capacidad muy alta de analizar los enlaces que apuntan a tu web. Pero no sólo tiene la capacidad de analizar tus backlinks sino que también te permite ver los backlinks que tiene tu competencia.

Además, también te permite observar la evolución que tienen tus backlinks para ver qué camino está cogiendo tu estrategia y tomar las medidas correspondientes. Es muy importante conocer el estado de tus enlaces -si estás ganando o perdiendo- y tener el control en todo momento de los cambios que se están efectuando. Debemos recordar que los cambios bruscos en la estrategia de creación de enlaces podrían hacer sospechar a Google que nuestro crecimiento no se

La redacción de contenidos SEO

La redacción de contenidos es una de las ramas del Inbound Marketing y consiste en conocer exactamente qué quieren saber tus clientes para, a partir de ello, crear y colgar en la red contenido interesante y de calidad para tus clientes o posibles clientes con una clara finalidad: atraerlos hacia tu negocio.

Actualmente, todavía son muchas las personas que asocian el servicio que ofrecen muchas agencias de marketing online de redacción de contenidos con la redacción no meditada de ciertos artículos en un blog que lo único que buscan es seguir la máxima -ya caduca- de “redactar para redactar “. Este hecho se debe a que no hace muchos años la mayoría de agencias de marketing online apostaban en sus servicios mucho más para la redacción de artículos que por la redacción de contenidos.

Antiguamente se creía que Google premiaba más la cantidad que la calidad del artículo. Ahora se ha demostrado que esta afirmación ya es obsoleta ya que para Google el contenido es el rey. Personalidades de Google tan emblemáticas como su ingeniero, Matt Cutts, no nos paran de recordar constantemente el cambio de paradigma de Google hacia la redacción de contenidos:

“Trate de hacer un sitio web con unos buenos contenidos tan fantásticos que te puedas convertir en una referencia de tu sector.”

Google lo que busca con la redacción de contenidos es una mejor experiencia de usuario. Por este motivo, exige más que nunca contenido de valor. El usuario debe verse seducido por el contenido para llegar a sentir atracción por el producto o servicio que ofrecemos. Ya hace tiempo que se ha quedado más que obsoleto lo que redactar un texto repitiendo la palabra que nos interesa cientos de veces sin pensar en el destinatario del texto que muchas veces se veía acosado con tanta repetición.

Google, por lo tanto, nos insta a todos nosotros a tomarnos la redacción de contenidos como una estrategia que tiene la finalidad de responder, de la manera más eficiente posible, a todas las preguntas y las necesidades que tienen sus usuarios. El proceso de la redacción de contenidos consiste en satisfacer ciertos patrones de búsqueda del buscador segun un consultor seo.

Posicionamiento web barcelona

Cómo posicionar mi web segun un seo  barcelona

Hay muchas personas que se preguntarán esto a menudo. Crean su web, ya sea de manera profesional o por otros medios, pero cuando lleva un tiempo su web en la red ven que esta no obtiene los resultados esperados y las expectativas que tenían se convierten en frustración e impotencia. Muchas personas y empresas han sentido esto, pero por otro lado es algo muy normal, y si no, contéstenme a estas pregunta ¿qué tiene vuestra web de especial que la diferencia del resto? Si hay cientos de millones de web ¿por qué Google iba a posicionar la vuestra en detrimento de otras? Si eres razonable no tendrás respuestas para esto, y es que son cientos los factores que impiden que Google coloque tu web en una posición privilegiada.Conocer esos factores es primordial para obtener dichas posiciones, pero eso no basta. La experiencia y la intuición son otras de las bazas necesarias.

Todo eso y tener siempre una actitud de aprendizaje famélica son las herramientas profesionales más importantes para que su trabajo se vea recompensado.Muchas de las personas que intenta posicionar su web en Google y en los demás buscadores vagan sin sentido por la red en busca de información. Y no es para menos, ya que la documentación que existe en la red esta muy desorganizada y además el SEO o posicionamiento web en buscadores son técnicas que requieren un estudio minucioso.

Como cualquier otro campo se necesita años de estudio para poder entender y aplicar dichas técnicas.Independientemente de que el que os escribe trabaja para la agencia SEO Peanut Development, yo siempre recomiendo, para que los resultados sean óptimos, que estos tipos de técnicas la lleve a cabo un profesional o una agencia SEO profesional y competente. Esto lo recomiendo por la siguiente razón, no solo realizar técnicas de posicionamiento web en nuestro sitio sin los conocimientos y experiencia necesaria puede resultar en vano, sino que además puede que, si utilizamos dichas técnicas de forma inadecuada, esto en vez de ayudarnos nos puede penalizar.

Lejos de desalentar a las personas para que posiciones sus web por sus propios medios, a continuación os mostraré los factores más importantes que Google tiene en cuenta para posicionar una web en su buscador.

Factores más importantes para posicionar una webAntes de nada hay que aclarar que esto son los más importantes y relevantes, no todos. Algunos se han arriesgado a dictar que hay unos 200 factores y aunque puedo o no estar de acuerdo con eso, no los expondremos todos. Además de ello es imposible saber cuales son todos, solo unos cuantos privilegiados lo saben y son los que han creado el algoritmo.

Edad del dominio

Google toma muy en cuenta la edad que tienen un dominio para posicionar a este en una u otra posición (valga la redundancia). Siendo dos páginas exactamente igual en los demás factores, Google tomará en más consideración la que su dominio sea más antiguo.Que una web cargue rápido, además de ser un factor que los usuarios que visitan un sitio toman en cuenta, Google lo considera muy relevante. Así que si tienes una web lenta seguramente te esté penalizando.

Optimización de imágenes

Esto no es solo que las imágenes pesen poco y carguen rápido, sino además es recomendable y es uno de los factores que afectan al posicionamiento, que una imagen tenga asignado un título relacionado con la palabra clave que utilizamos, un texto alternativo y una descripción.Ortografía y gramática correctasEscribir de forma correcta tanto ortográficamente como gramaticalmente es importante para que Google que nuestro contenido es relevante.

Contenido relevante

Yo diría que es lo más importante de todo. Aunque Google aún y digo aún porque seguro que algún día lo conseguirá, no pueda detectar directamente lo relevante que es un contenido, este, se ayuda de otros medios para averiguarlo. Estos medios son las redes sociales. Así que si tu contenido es compartido por muchas personas en las redes sociales seguro que aupará algunas posiciones en Google.

Número de enlaces DoFollow (entrantes)Aunque un gran número de enlaces entrantes a tu web puede ayudar al posicionamiento de la misma en Google, más importante aún es que esos enlaces provengan de sitios de autoridad. Evitad enlaces entrantes de baja calidad, esto lejos de posicionar, penaliza.Aquí lo complicado es conseguir esos enlaces.

Número de enlaces NoFollowSi no sabéis lo que son enlaces NoFollow, estos son aquellos que nos transmiten autoridad. Es decir, Google los rastrea, pero no traspasan autoridad a la web enlazada.Pero a pesar de los que muchos piensan, los enlaces NoFollow son también importantes  y sin entrar en detalles diré que hay que tener un equilibrio entre enlaces DoFollow y enlaces NoFollow.

Link Juice

El Link Juice es el zumo de enlaces. Los enlaces internos de una web son muy importantes, tanto para la navegabilidad de la misma como para el traspaso de autoridad de una página a otra en la misma web. Una buena estrategia de Link Juice puede ayudar a que nuestra web este bien equilibrada de autoridad y por lo tanto que ayude al posicionamiento de la misma.Enlaces entrantes rotosNo tener enlaces entrantes rotos no ayudará a que nuestra web se posicione en los buscadores, pero tenerlos seguro nos penalizará. Tened cuidado con esto y verificar a menudo los enlaces entrantes para asegurarnos de que no tengáis ninguno roto.

Enlaces internos rotos

Más de lo mismo. No tener enlaces internos rotos no ayudará al posicionamiento de la misma, pero tenerlos nos penalizará seguro. Así que verifica que tu web no tenga enlaces internos que arrojen errores 404, 503 u otros.

Errores html

Los errores html son típicos en casi todas las web, así que aprovechad para que la vuestra no tenga y así sumar un punto más para que Google os vea con buenos ojos.

En realidad el DR/UR no es un factor relevante, sencillamente porque ya hace más de un año que dejo de existir. Pero hay otra medida que si son importantes y aunque Google no lo haga oficial, resulta relevante. Esta medida es el DA o domains rank, que es un factor muy parecido al  PA o page rank.

Urls amigables

Las URLs amigables o URLs sin caracteres extraños es un punto a favor.

Últimamente si se está utilizando un poco más. Una URLs no amigable sería esta: www.dominio.com/323?php/23af344?php. Y una URL amigable esta: www.dominio.com/mi/articulo.Actualización de la webGoogle se ha puesto las pilas con esto.

Las web que no generen contenido fresco y que se no se actualicen con asiduidad no serán tomadas como relevantes y por lo tanto no serán posicionadas de forma óptima.La arquitectura web abarca temas como la usabilidad web y la jerarquía de contenidos. Una buen con una usabilidad correcta un una jerarquía de contenido óptima tiene más opciones de obtener un buen posicionamiento.

Ubicación del servidorGoogle le da más importancia a una web que tenga un servidor ubicado en el país a donde vaya dirigido su tráfico que a otra que tenga por ejemplo un servidor en EEUU y su tráfico vaya dirigido a España.Política de privacidad y Aviso legalGoogle cree que las web que tengan declarada la política de privacidad y el aviso legal son más seguras, y yo no le contradigo en eso.Contenido duplicadoEsto resulta obvio y lógico. Google detesta el contenido duplicado por dos razones, primero estas copiando a alguien y eso no está nada bien y segundo no estás aportando nada a la comunidad de Internet.

Ten seguro que Google penalizará tu web si detecta contenido duplicado en la misma, y puedes estar seguro que lo detectará.Diseño responsiveEsto no solo afectará a nuestro posicionamiento, también lo hará con el tráfico que recibimos. Son muchos los que usan Internet a través de dispositivos móviles, y si nuestra web está preparada para poder ser visualizada por estos dispositivos no solo ganaremos tráfico, además Google nos verá con buenos ojos.

Porcentaje de rebote

El porcentaje de rebote es el número de usuarios que entran en nuestra web sin interactuar con ella dividida por el número total de usuarios. Un porcentaje de rebote demasiado alto nos penalizará, porque este dato le mostrará a Google que nuestra web no les interesa a los usuarios.Palabras claves en los títulos, sub-títulos y descripciones

Utilizar en los títulos, sub-títulos y descripciones las palabras claves nos ayudará a posicionar esa página o artículo por las palabras claves indicadas.T

ráfico directo

Una web que recibe mucho tráfico directo, es decir usuarios que entran en una web directamente introduciendo el dominio, ayuda a rankear. Google considerará que es una web conocida y popular.Densidad de palabra claveLa densidad de palabra clave es el porcentaje de palabras claves que hay en nuestra web en comparación con el número de caracteres totales. Si queremos que Google posicione nuestra web por ciertas palabras claves tenemos que dejarle claro cuáles son. Así que como mínimo necesitamos una densidad de palabra clave de un 2%.

Pero como nos pasemos nos penalizarán porque Google considerará que existe una sobre-optimización, así que tened cuidado y no rebasar nunca una densidad de palabra clave superior al 4%.

Tráfico recurrente

El tráfico recurrente es el tráfico que repite en nuestro sitio. Es decir, si un usuario que ya ha visitado nuestra web, vuelve a visitarla, este, se convierte en tráfico recurrente.

Esto lo valora Google ya que considera que esa Web les interesa a los usuarios.Google PlusPorque no puede ser de otra forma, Google da más importancia a su red social que a las demás. Así que si nuestros artículos, contenidos o páginas son muy compartidas en la red social Google + y además esto recibe muchos +1, nos ayude de forma muy positiva en el posicionamiento de nuestra web.

Bueno y hasta aquí hemos llegado. Hay más, muchos más factores, pero hemos revelado los que consideramos más relevantes.Créanme cuando les digo que posicionar una web es un trabajo arduo y constante y que no les será fácil hacerlo y conseguir verdaderos resultados, se los digo de primera mano y desde mis años de experiencia.

 

 

 

SEO: tráfico orgánico

SEO: tráfico orgánico

Es una realidad que el Internet se ha vuelto un elemento base y un pilar en nuestras vidas cotidianas, a nivel personal y a nivel profesional. Los buscadores web empezaron a surgir a principios de los años 90, Google hizo acto de presencia en el año 1996, y se volvió el motor de búsqueda popular. No pasó mucho tiempo para que las personas descubrieran que se puede recibir un ingreso económico utilizando el internet. Pero para lograr esto es necesario atraer una cantidad representativa de tráfico, y ¿cuál es la manera idónea para generar un tráfico alto? Los motores de búsqueda, en este instante los creadores de páginas webs comenzaron a idear prácticas para ocupar los primeros lugares en los resultados, aquí comienza el SEO (Search Engine Optimization), y la razón del mismo es bastante fácil de determinar: aumentar el tráfico orgánico.

El tráfico orgánico es la cantidad de visitas que recibe nuestro sitio o página web y que llega a través de los motores de búsqueda. Por razones obvias queremos obtener un tráfico orgánico alto, deseamos que la gente lea nuestro contenido, esta es una manera de crear ingresos económicos, para poner un ejemplo, una página web de una empresa de ventas, puede generar compras y clientes potenciales, un sitio web de una posada u hotel, posibles huéspedes…. además de los blogs y otras alternativas que nos podemos encontrar en la web para obtener ganancias.

Estrategia SEO para aumentar el tráfico orgánico ( seo en barcelona)

Deseando el aumento de tráfico orgánico buscamos contar con un buen posicionamiento SEO, y para lograr esto nos valemos de diversas prácticas o técnicas, que efectuamos de manera interna en nuestro sitio (SEO On Page) o mediante la participación de otros sitios con autoridad (SEO Off Page).

Para plantear una correcta estrategia SEO, debemos analizar los múltiples factores en los cuales se basan los motores de búsqueda para establecer la posición de una página o sitio web, y aunque son muchos, se resaltan dos de ellos:

  1. La autoridad: De manera general podemos decir que se trata de la popularidad de una web, mientras sea más popular, más valor tendrá su contenido. Este aspecto se basa en la experiencia propia de los usuarios, por lo cual, los buscadores lo toman mucho en cuenta. Mientras un contenido se comparta en cantidad, el buscador lo considerará útil.
  2. La relevancia: Esta es la relación que existe entre una página y una búsqueda realizada. Considerando muchos factores.

7 herramientas para crear infografías 

Las infografías se han convertido en un elemento clave en la comunicación empresarial 2.0. No es casualidad; una información compartida resulta mucho más atractiva a través de enunciados breves y precisos, tablas de datos, estadísticas y un fondo ilustrado. Además, su creación es cada vez más sencilla debido a la aparición de softwares que permiten el diseño y estructuración de todo tipo de infografías. Aquí os dejo los programas más fáciles y gratuitos (la mayor parte de ellos tienen una versión de pago con más prestaciones) de emplear:

Piktochart.com es una de las herramientas más expandidas en el ámbito de las infografías. Es muy fácil de usar, y con ella se pueden realizar ilustraciones desde una plantilla en blanco o con los temas que el software nos ofrece. El único punto débil de la versión gratuita es la falta de temas, aunque lo compensa con las posibilidades de las plantillas en blanco.

Infogr.am es un programa muy útil, especialmente en infografías numéricas ya que permite importar tablas desde otros formatos como XLS. o CSV. El diseño de las ilustraciones es similar al anterior, aunque como digo, esta web me gusta concretamente para ilustraciones con estadísticas.

Esta herramienta es muy similar a la primera citada. Diseños atractivos, usabilidad y facilidad de manejo son las principales características de ambos softwares. Quizás Easelly tenga más temas, aunque al final se convierte en una cuestión de costumbre. También 100% recomendada.

Nada nuevo que decir, aunque sinceramente prefiero las anteriores. Los temas ya creados son algo más caóticos y menos atractivos (todo bajo mi opinión), por o que suelo optar por las anteriores. Pero siempre podéis probar y crear, todo depende del gusto de cada uno.

Otra herramienta especializada en números y estadísticas. Infoactive construye infografías interactivas, con un diseño simple y responsive. Aunque la he usado en menos ocasiones, también la recomiendo por su facilidad de uso y los diseños que ofrece segun seowebconsultora seo.

La primera infografía que realicé fue con esta herramienta. Está recomendada para crear CVs en gráficos e interactivos, aunque no lo veo muy práctico para infografías numéricas o de datos.

Es un programa destinado a diagramas. Suelo variar entre éste e icharts. Aunque no son herramientas infográficas como tal, son muy útiles para crear tablas de datos y diagramas de todo tipo, como indica mentedigital

 

3 Tácticas de tráfico web para posicionar tu blog

3 Tácticas de tráfico web para posicionar tu blog

¿Está constantemente golpeando su cabeza en señal de frustración al no recibir todo el tráfico de Internet que te gustaría en blog? Si estas atormentado por la sobrecarga de información sobre las últimas tácticas de tráfico para tu sitio web y no eres capaz de entender nada de eso? Usted puede emplear estas tácticas de tráfico web sin pagar una moneda .Aquí está el resultado:

1. Vínculos

De todas las tácticas eficaces de tráfico web en donde usted puede obtener los mejores resultados, son los enlaces con otros sitios web.  Este es uno de los método más ampliamente utilizado.

2. Meta Tags

Otra forma de adquirir el tráfico que desea para su sitio web es a través de sus etiquetas  y utilizar palabras clave que se dirigen a su blog. Las etiquetas ayudan a los motores de búsqueda en la descripción de su página web. Si usted es bastante hábil con el aspecto de HTML de sus páginas web, la manipulación de las etiquetas meta sería muy fácil.

3. Contenido rico en palabras clave

Escribir o la adquisición de artículos que proporcionan información sólida acerca de la temática sobre tu blog es una de las mejores maneras. Haciendo uso de las herramientas gratuitas de sugerencia de palabras clave tales como Overture le ayudará en el uso de palabra clave o frases que trabajaran para tener mejor calidad de más tráfico a su sitio web.

La presentación de estos artículos a varios listados de artículos proporcionará una mayor visibilidad para su negocio, siempre y cuando mantenga su firma de contactos para crear por sí mismo de nuevo numerosos enlaces.

Estos métodos, si se utilizan correctamente, no sólo hará que su sitio web sea popular, sino que lograran el resultado más deseado: una mayor tasa de conversión.

Cómo optimizar para otros buscadores

Cómo optimizar para otros buscadores

Aunque en nuestros artículos nos estamos centrando sobre todo en optimizar para Google por las razones expuestas en la presentación, no debemos perder de vista a los otros dos contendientes en liza, Yahoo! y MSN.1. Un poco más sobre Yahoo!

Yahoo! pone el peso de sus resultados en el análisis del texto de la página . Estudia la correspondencia de éste con la información incluida en los metadatos title y description , para asegurarse de la exactitud de éstos en el momento de presentarlos a los usuarios. También es importante la popularidad de la página en cuestión, igual que para Google.2. Un poco más sobre MSN como indica un seo barcelona

MSN utiliza como motor de búsqueda Live Search. Su algoritmo está completamente automatizado ; esto quiere decir que no hay intervención humana en el filtrado del contenido indexado y por tanto puede mostrar resultados de sitios web más nuevos que sus competidores. Por contra, es más fácil que se le “cuelen” sitios web cuyas intenciones no sean del todo honestas.3. Los metatags para Yahoo!

Como ya hemos dicho, para Yahoo! (al igual que para los otros buscadores y sobre todo para los usuarios) la información contenida en los metadatos ha de corresponderse con el resto del contenido de la página.

Esta correspondencia la hace mediante el cálculo de la densidad de palabras clave que encuentra tanto en el título como en la URL y los metatags. Según Yahoo!, la densidad óptima de palabras clave es del 15 al 20% en el título, del 3% en el contenido (la parte incluida en el body ) y del 3% en los metatags.

Sin embargo, otros buscadores, sobre todo Google, encontrarán estas densidades demasiado altas. Hemos de andarnos con cuidado para que nuestra optimización hacia Yahoo! no la vean como un intento de engañarlos. Lo mejor es utilizar el sentido común y sobre todo escribir de forma natural y siempre dirigido a usuarios humanos.4. Los metatags para MSN

Para la red de Microsoft, el metatag description es el más importante . Por eso merece la pena dedicarle atención suficiente, redactarlo de forma adecuada para los vistantes e incluir en él de forma natural las palabras clave por las que deseamos posicionar esa página.

Por otro lado, si no se le dice lo contrario, Live Search tomará la descripción incluida en OpenDirectory para nuestro sitio web. Esto puede ser un inconveniente ya que muchas veces esta descripción queda anticuada. Para evitar que esto ocurra, y que utilice siempre la descripción proporcionada por nosotros en nuestras páginas, lo mejor es añadir la siguiente etiqueta de código: 5. El contenido para Yahoo!

La relevancia de contenido es importante para Yahoo!, que ya hemos dicho que pone su mayor énfasis en el análisis de texto de la página. Por eso es importante incluir las palabras clave en una densidad correcta a lo largo del texto de contenido, y además bien contextualizadas.¿Cuál es la densidad correcta de palabras clave? Bueno, en el punto 3 ya hemos indicado que para Yahoo! es del 3% en el contenido. Sin embargo, otros buscadores, como Google, pueden encontrar esa densidad demasiado alta. No hace falta ser demasiado rígidos en una densidad determinada, pero nuestra recomendación es que no supere el 2,5-3%. Si hay que elegir entre un buscador u otro, nosotros preferimos posicionar bien en Google (que es más utilizado en España) y que Yahoo! se apañe, a posicionar bien en Yahoo! y enfadar a Google por demasiadas palabras clave.

Si busca la respuesta correcta, lo más aproximado que le podemos dar es: escriba de forma natural . No piense en Google ni en Yahoo!, sino en sus usuarios. Y luego, revise que sus palabras clave aparecen de vez en cuando. Si ve que escribiendo de forma natural o por exigencias del contenido la densidad es demasiado alta, busque sinónimos.6. El contenido para MSN

MSN (o más bien Microsoft Live Search) pone más énfasis en la frescura del contenido que otros buscadores, por lo que actualizar el sitio web con frecuencia da una mejor posibilidad de posicionarse en este buscador.

Su criterio de densidad de palabras clave es muy parecido al de Google, pero hace más hincapié en que éstas estén en la parte superior de la página . Esto ayuda a su robot de indexación a clasificar una página web. Recordemos que la automatización es clave en MSN y éste es uno de los factores que ayuda a asignar posiciones.

Por otro lado, para nuestros usuarios es también importante que el primer párrafo les explique qué van a encontrar en la página.7. Los enlaces entrantes para Yahoo!

Ya sabemos que uno de los factores para posicionar bien en Google es la popularidad de nuestras páginas. La creación de enlaces es una de las tareas que debemos acometer en toda estrategia SEO, y esto no es diferente para Yahoo!.

Igualmente son importantes para Yahoo!, además de la cantidad, la relevancia de los enlaces en su contexto, el texto ancla (es decir, el texto enlazado) y su contenido en palabras clave.8. Los enlaces entrantes para MSN

Lo mismo puede decirse para MSN. Sin embargo, en este caso la calidad es más importante que la cantidad : la reputación del sitio web que hace el enlace, las palabras clave en el texto ancla y la relevancia en el contexto tienen más importancia que la cantidad de enlaces que haya hacia nuestras páginas.9. Optimización para los tres grandes

Cuándo contratar un SEO

Cuándo contratar un especialista en SEO

Posicionar una web en Internet puede ser muy fácil, con un contenido excepcional y una audiencia cautiva, o sumamente difícil, si el contenido que podemos publicar es limitado por la propia naturaleza del sitio web o existe mucha competencia en el sector. ¿Cuándo será suficiente con utilizar el sentido común y algunos consejos encontrados en webs como ésta, y cuándo es necesario contratar los servicios de un especialista?1. Cuando no se tiene mucho tiempo para invertir en SEO

Si la optimización de su sitio web en buscadores le va a robar tiempo de su verdadera función en la empresa y ésta se va a resentir , es el momento de buscar un especialista en posicionamiento en buscadores. Si no está seguro, piense en diferentes criterios: ¿cuánto vale una hora de su tiempo en dinero?; ¿cuánto le cuesta a la empresa y cuánto ingresa la empresa por esa hora de su trabajo?; ¿hay alguien más que pueda sustituirle durante esa hora y hacer lo que usted hace, tan bien como lo hace usted? Es posible que visto así un servicio de SEO externo no resulte tan caro.2. Cuando no se tienen los conocimientos técnicos necesarios

Es posible que para diagnosticar fallos de optimización de su sitio web se necesiten determinados conocimientos. Y si hay que realizar cambios, no ya en el contenido, sino en el código de sus páginas, también se necesitan conocimientos de programación. Si en su empresa no hay una persona que pueda realizar esos cambios sabiendo perfectamente lo que se trae entre manos , necesitará a alguien que lo haga. Ése puede ser un experto en SEO (el mismo que haga el diagnóstico) o sus colaboradores, o una empresa de diseño y/o programación de sitios web.3. Cuando sus habilidades de redacción no son perfectas

Ya hemos dicho que el contenido es el rey, no sólo en el fondo sino también en la forma. Si bien redactar el contenido de una página puede ser fácil para usted, la última revisión, el último toque con espíritu SEO, se lo debería dar un especialista no sólo en redacción, sino en manejo de palabras clave y en usabilidad.4. Cuando ha probado todos los consejos y aun así no consigue posicionar su web

Si después de seis meses su web sigue enterrada en la enésima página de resultados de los buscadores, es posible que algo falle todavía. ¡Especialista SEO al rescate!5. Cuando va a lanzar su nuevo sitio web pero quiere asegurarse de que todo es correcto en cuanto a SEO

No es mala idea hacer que un especialista revise la maqueta de su sitio web antes de que los buscadores la indexen. O mejor todavía, incluya un especialista SEO en la fase de diseño e implementación para no tener que trabajar dos veces sobre el mismo elemento. De esta forma se asegura de que la versión que van a posicionar va a ser la correcta.6. Cuando no está seguro de qué técnicas están aceptadas por los buscadores

Ya sabemos que algunas formas de posicionar su web están penalizadas por los buscadores; si no está seguro de la validez de alguna técnica , lo mejor es contratar un servicio de consultoría SEO que nos eche una mano.7. Cuando en su sector hay mucha competencia

Normalmente una competencia feroz en el negocio significa también gran competencia por los resultados de los buscadores . Un especialista SEO puede ayudarle a estudiar a los sitios web que compiten por las primeras posiciones de las SERPs (Search Engine Results Pages o páginas de resultados) y establecer una estrategia de posicionamiento en buscadores acorde a esta competencia.8. Cuando es necesaria la coordinación de la estrategia SEO con otras herramientas de marketing

Usted no quiere que parte de su empresa tire del carro en una dirección y otra parte en la dirección contraria; su estrategia de marketing debería contemplar todos los aspectos de la imagen de su empresa , también en Internet y por supuesto en los buscadores. La coordinación es esencial.9. Cuando se han identificado problemas de reputación online de la empresa o del sitio web

Un especialista SEO está acostumbrado a ver la reputación online de su web como un todo y podrá sugerirle diferentes aproximaciones o estrategias para minimizar las consecuencias de un brote de mala reputación online .10. Cuando no puede dedicar un tiempo regular a formación continua sobre SEO

Los buscadores continuamente implementan nuevos algoritmos en sus motores de búsqueda, surgen nuevas técnicas y otras caen en desuso o son penalizadas. Es trabajo de un especialista SEO mantenerse formado e informado .

La contratación de un especialista SEO no garantiza que su sitio web vaya a alcanzar la primera posición en Google. Nunca hay garantías en este trabajo . Si un especialista SEO le da alguna garantía en este sentido, desconfíe. Es posible que esté utilizando técnicas que a corto plazo pueden hacer subir su PageRankTM en un tiempo récord o haga que aparezca el número 1 por su palabra clave favorita, pero a medio plazo su sitio web se hundirá en las profundidades del abismo de los webs penalizados que conocieron tiempos mejores.

: