buzoneo y reparto de publicidad

Leo alucinado en Clases de Periodismo, como resulta que hay un Señor, «sueco él», que es el autor de casi el 8,5% de los artículos de la Wikipedia, y que se «casca» a diario en un buen día 10.000 artículos…

robot writerResulta, que este Sr., al que no se le puede reprochar nada pues todo lo hace de buena fe, y sin beneficio ninguno pero con mucho «oficio», utiliza un bot. Es decir, un robot informático

…pero ¡¡¡aaaaaaaaah!!!..le duele que desprestigien su trabajo, ya que el robot lo creó él, y asegura que este bot solo hace un borrador, y que entonces el revisa los textos, aporta cosas, redacta , bla, bla….y si, si, dice que un buen día hace 10.000 artículos. Más que palomitas haría yo en una sartén «de sol a sol»…

Pues verán señores, no se a quien le fallan las matemáticas, pero resulta que el día tiene 24 horas.

24 horas tienen 1440 minutos.

Y 1440 minutos tienen 86400 segundos.

Suponiendo que el Sr. Sverkel Johansson ni duerma, ni desayune, ni coma, ni cene, ni «otros aspectos diarios» …sale a una espectacular media de 1 artículo cada 8 segundos.

Ahora digamos que si hiciera todo eso (espero que sea así, dicho de paso) , y que estuviera, no sé, un total de 12 horas «para lo uno», y el resto «currando» (12 horazas/día por amor al arte, recuerdo)….pues nada, los números son claros, en la mitad de tiempo que nadie en la historia ha corrido los 100 metros lisos sin dopar, ni tampoco dopado «hasta las cejas», este Sr. y su robot nos hacen no 1, sino 2 artículos, y además «dicen» que revisados, y a los que aporta su granito de arena. Su know-how, y un toque personal….y, además, dentro «del tiempo»…también  ¡¡¡Los publica en la Wikipedia!!!

Eeejejjeem….que tos!!!!!…no digo más…el cabreo lo llevo dentro…y sino piensen en que un robot haga su trabajo, el que sea, de casi una hora en 4 segundos, y usted sea noticia en el Wall Street Journal no por crear el robot, sino por el trabajo que hace su robot en 4 míseros segundos! ¿Pero en qué cabeza cabe valorar eso? ¡¡¡4 segundos por dios!….y aunque fueran 400!!! (que son un poco más de 6 minutos y medio, tiempo en el que  este Señor publica !!!100 artículos en Wikipedia….!!!

Serio. Un tema muy serio, y, a mi gusto, fatal para Wikipedia…cada uno, lóoooooogicamente, que opine como vea.

Ahora vamos con 3 apreciaciones, «marca de la casa» (grrrrrrrr…)

Uno, por favor rogamos noticias más coherentes. Que si, que habrá un robot que lo haga, pues vale. Pienso que es una desgracia para internet, pero vale….

Ahora que  Clases de Periodismo  (ver texto en http://www.clasesdeperiodismo.com/2014/07/16/conoce-al-autor-mas-prolifico-de-wikipedia/), y su fuente http://online.wsj.com/articles/for-this-author-10-000-wikipedia-articles-is-a-good-days-work-1405305001, el prestigiosos Wall Street Journal, a los que les aseguro que los primeros tardaron bastante más de 8 segundos (seguro)  traducir al español el texto del original en  inglés y después publicarlo en su página, nos planteen esto como un notición «de autor»….pues me da hasta pena.

Que si, que este Sr. es un genio por haber creado un robot que podría poner a cualquier diario digital, blog, web…con millones de visitas diarias (es de suponer, pues con «tanto contenido», es lógico recibir muchas visitas), con una velocidad de «creación de contenidos» ROBOTIZADOS espectacular -lo que no aplaudo ni lo más mínimo-…pero ¿Que nos lo presenten como el Shakespeare del Siglo, diciendo que hace 10.000 artículos diarios?…me siento…sinceramente…como si me quisieran tomar por gilipollas perdido. Perdonen «el tonito», pero es queeeeeeeeeeeee…………

Dos, si Sverkel utiliza un bot que remixea la info., y saca contenidos de otras webs, no se si será legal, que seguro si puesto que aquí  no habrá «cristo» que pueda demostrar un plagio, y si lo permite Wikipedia, puesssss….debe serlo…. Pero ¡Ojo!, puede estar haciendo «mucho daño» al posicionamiento web de los contenidos originales creados «de puño y letra» por autores originales, por así llamarles, puesto que los contenidos duplicados son penalizados por Google y los buscadores (lo que afecta directamente a las visitas a sus contenidos, y a alcanzar los muy variados objetivos que se hayan marcado estos : AUTORES REALES ). Y….Pregunta ¿Qué fuente tendrá más trust rank (ranking de confianza), su web o Wikipedia? ¿Cual será penalizada por contenido duplicado? …y ¿quien fue el VERDADERO autor, no un «mixer de la información»?

Pongamos un ejemplo…yo redacto un artículo sobre, por ejemplo, el «data mining», «el big data», «el cloud computing» o sobre las «campañas de publicidad directa». Son solo ejemplos.

Y, por lo que fuere alcanzo las primeras posiciones de los buscadores. ¿Por «lo que fuere»?… ¡no!…¡eso no pasa!…tendría que haber un muy buen trabajo detrás (redacción optimización, seo en ocasiones…), y una excelente aceptación popular. Y recibo visitas. Recibo el premio al buen trabajo, llegando a las primeras posiciones de las búsquedad en Google.

Pero…¿Qué pasa cuando alguien duplica mi trabajo?. Pues que los buscadores se sienten confusos, y no saben cual es el contenido original. Cual debe de ocupar «su sitio». El de los números 1…y entonces, si no pueden averiguarlo, pasan a la confianza de la web. Y la de Wikipedia debe ser muuuuuuuy alta; solo hay que ver los resultados que ocupan sus contenidos.

Pues maldita la gracia ¿no creen?…que trabajos hechos por un robot, o semi hechos (réstenle algunos de los segundos citados), quiten de las primeras posiciones a los autores reales (y a las páginas en las que se publicó la «información de autor»); es muy injusto…por no decir algo más «gordo».

[smartads]

Ummmmm…por cierto, crono «en mano», llevo 32 minutos para escribir lo que llevamos de texto. Obvio el tiempo de captación de información en las susodichas macro páginas, a las que saludo desde estas líneas y, obviamente no se trata este artículo de ningún ataque. Faltaría más…solo que la info. pues….¿Puedo ponerla en duda, no?…esto no deja de ser un artículo de opinión.

Tres…¿Qué será de nosotros cuando los robots tomen el mando de internet y de las noticias (aunque veamos que ya lo han tomado…snif, snif..)….y me remito a uno de mis primeros artículos en SOCIALetic.com (antes con un nombre que prefiero obviar), cuya redacción espero que esté correcta para sugerirlo…ooops, bien, es un remember ¡¡¡del 7 de noviembre del 2010!!! : pero original ! : Robots, blogs en 5 minutos y contenido artificial ¿La información en internet en peligro?  y del que además destaco que NADIE, ni Dios…y mucho menos un robotito, me lo compartió en ninguna red social : CERO PATATERO a las 20:27 del 16/07/2014…pero seguí, y aquí estoy rememorándolo : A MANO.

PD: Tiempo de duración: 48 minutos (me falta colocar alguna imagen, SEO y «detallitos» para dejar el post majo. 😉 …. con el robot, tendría en «la Wiki» (a la que no sé hasta que punto le harán gracia este tipo de noticias), nada más y nada menos que…unos 285 artículos!!!…más de los que publicamos todo el mes trabajando todos los días!!! aterrador…es mi opinión.

David Guiu
CEO de SOCIALetic.com. Director dewww.open-buzoneo.com , www.carteles.barcelona y www.carteles.madrid - + 10.000 campañas dirigidas de buzoneo en Barcelona y buzoneo en Madrid y España, y pegada de carteles Barcelona y Madrid. T. 645 768 490

Leave a reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *