WebParser 2.8.4.1

Добавлена опция в настройках — не обновлять интерфейс во время парсинга

Исправлены баги с записью файла parser.ini

Исправлен баг не обнаружения оставленного комментария для DLE и соответственно поэтому многие сайты добавлялись по ошибке в список не успешных

Улучшена стабильность работы

Рубрика: WebParser - Описание последних изменений и нового функионала | Добавить комментарий

Эксперты веб индустрии — Исследование факторов ранжирования !

Если кто не в курсе решил напомнить оч полезную ссылочку!

Все мы знаем про SEO тэги, но не все знаем откуда дует ветер о том что важней тэг  <b> или <string>

Так вот на сайте найдете таблички с описаниями.

Таблицы от не просто от СЕО спецов, а от Основателей крупных гигантов, таких как Yandex…

 

topexpert.pro

Рубрика: SEO (Search Engine Optimization) Поисковая оптимизация, Поисковая оптимизация сайта | Добавить комментарий

Раскрутка бренда. А вы используете, ссылки на авторство? Нет?! Давно пора, защищать свой контент!

Давным давно, в далеком июне 2011 гугл начал учитывать в своей выдаче и ранжировании мета-теги rel=»author» и rel=»me»

Разберем все максимально коротко и понятно.

Рассмотрим проблему с точки зрения Google, он попытался решить весьма занимательную задачку:

1. Вы пишете статьи и публикуете их в разных местах.
2. Учитывая алгоритм чья первая статья проиндексирована, тот и ее автор.
3. Так кто же действительно ее автор и чей проиндексированный текст является уникальным, а чей копипастом?
4. Google решили ввести метки в статье для указания ссылки на автора, убив тем самым три зайца: авторство текста, популяризацию сервиса Google + и объединение всех статей в общую базу — ОДНА статья раскиданная по куче сайтов, вдруг имеет общую объединяющую благодаря признаку author.
5. Все просто создаете профайл Google + Если у вас еще все еще нет, то советую вам его завести.
6. На вашем сайте вы пишете ссылку на свой профайл Google +
7. Из своего сайта/блога в статьях указывайте везде автора, разумеется если это вы то вносите

<a href="https://plus.google.com/111408456304174972967" rel="me">Google +</a>

Если автор не вы, или вы размещаете статью на стороннем сайте, то вносите на нем текст наподобие

Written by <a href="https://plus.google.com/111408456304174972967" rel="author">Мы в Google+</a>

Также rel=»author» используйте для указания ссылки на автора статьи, если вы используете чьи-то ссылки.

Эта техника весьма полезна для подъема вашего бренда, как компании, так и лично вашего имени.
В итоге вы будут приобретать больший вес как в глазах гугла для его ранжирования, так и для других людей читающих ваши статьи.

И действительно смотрите как здорово выглядит проверка авторства:
Publisher

В итоге вы должны получить нечто подобное. Последний пункт Publisher у меня есть только на главной. По документации его просят внести только на основную страницу сайта.

Так что регистрируйтесь на Google +, делайте фото, привязывайте авторство статей к Google Plus и ФЛАГ ВАМ В РУКИ !!!
Ниже инструкция как добавить. На всех блогах рунета вы найдете совершенно различные описания этого процесса без нормальных комментариев.
Если и моя инструкция ломает вам голову, то в конце вы найдете ссылку для тех кто совсем ничего не понял )))

 

ПОШАГОВАЯ НАСТРОЙКА REL = AUTHOR, PUBLISHER & ME:

Для проверки авторства URL используйте следующий инструмент, также используйте его для тестирования верности указания ваших rel ссылок.
http://www.google.com/webmasters/tools/richsnippets

1. На главной странице вашего сайта создайте ссылку аналогичную следующей, в которой естественно замените код google + на свой.

<a href=»https://plus.google.com/111408456304174972967″ rel=»publisher»>Мы в Google+</a>

2. В футер (нижняя часть сайта) всех страниц советую вставить следующую ссылку (номер профайла подставьте свой)
<a href=»https://plus.google.com/111408456304174972967″ rel=»me»>Google +</a>

Проще эту ссылку вставить сразу в футер, чем постоянно в каждой статье указывать себя в качестве автора

3. В вашем профайле Гугл Плюс Добавьте Ссылки на ваш сайт.
4. В вашем профайле Гугл Плюс Добавьте Свои ссылки в раздел мои публикации.

Пункты 3-4 редактируются на одной закладке ССЫЛКИ в вашем профайле Google +.

 

Help от гугла по настройке.

 

Информация по добавлению publisher:
Как связать +страницу с вашим сайтом
http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=1708844

 

Плюс два способа подтверждения автортва через email и ссылку на Google Plus
http://support.google.com/webmasters/bin/answer.py?hl=en&answer=1408986

 

Для тех кто совсем ничего не понял пройдите по ссылке
http://www.google.com/webmasters/tools/richsnippets

Введите ваш URL и вы получите полный Help от Google.

Рубрика: SEO (Search Engine Optimization) Поисковая оптимизация, Поисковая оптимизация сайта | Добавить комментарий

WebParser Видео Обучение — Урок 1. Основы парсинга. Часть 1 из 3.

Парсер поисковых систем. Сбор баз сайтов и SEO раскрутка. CyberMake WebParser Manual.

Введение в программу WebParser от CyberMakeСмотрите каждое видео и выполняйте уроки на практике.
В каждом новом уроке вы можете найти весьма приятные акции,
например подарочный купон на хорошую скидку и другие
полезные вещи.
Бесплатную версию программы вы можее скачать у нас на сайте
Спасибо, что вы с нами!

 

Урок 1. Часть 1 из 3.

Урок состоит из трех частей

WebParser Video Manual Урок 1 — Часть 1

Части 2 и 3 доступны нашим подписчикам в наших группах

ВКонтакте SEO & SMM Tools

FaceBook SEO & SMM Tools

Вступайте, подписывайтесь, изучайте новые уроки и участвуйте в акциях и жизни группы и ваши пожелания будут учтены разработчиками в следующих версиях программ!!!

Рубрика: WebParser Видео Обучение | Добавить комментарий

BlackSpider — Описание последних изменений и нового функионала

На данной странице в комментариях будет публиковаться описание последних изменений и нового функионала в новых релизах BlackSpider

Рубрика: SEO - софт, SEO (Search Engine Optimization) Поисковая оптимизация, Софт | Метки: | Добавить комментарий

WebParser — тонкости работы с SEO плагинами

Сейчас я вам наглядно покажу как использовать софт.

Каптча — она везде каптча, на то и защита от ботов. На нее уходят средства антикаптчи.
Успешных сайтов в реальности намного больше чем в списке успешных высвечивается, просто не всегда реально отловить что коммент оставлен или нет.
Поэтому просили на форумах лучше чтобы туда попадет меньше успешных, чем попадется хоть сколько-то неуспешные, по которым потом при повторном прогоне как раз и будет лишняя каптча уходить.

Если вас не устаивает DLE прогоны — используйте прогоны по Joomla — тут антикаптча вообще не нужна. И затрат на прогоны нет.
А с заполнением профайлв в DLE посмотрим, иправим.

Рассылка по Joomla
—————————
1. Нажал парсинг Joomla сайтов — собрал 600 сайтов
2. За пару минут рассылки выдало сотни успешных (Рег. активация и доб комментариев).
3. На закладке SEO — EMAIL можно увидеть успешные сайты по которым пришли уведомления на почту о продолжении регистрации.

Естественно коменнты оставлены не везде но базу набить можно, плюс ко всему рассылки по Joomla выполняются по тем сайтам, на которых нет каптчи.
Прошел по паре ссылок и нашел комменты, действительно программа постит
Сейчас список успешных еще более растет.
Плюс повторная рассылка от текущего профайла уже не требует регистрации.

—————————-

Таже история и с DLE

1. Раз собрал хорошую базу с Фильтром в WP включенным по NOINDEX, чтобы сразу отсеять регистрацию на NOFOLOW сайтах плюс Фильтр этот отсеит еще и сайты на которых нельзя комменты вообще оставлять.

2. Разослал коменты по ссылкам. Или просто зарегистрировался.
3. Собрал успешные.
4. Далее отключил антигейт или нарочно ввел не верный ключ антигейта.
5. Далее делаешь прогон по комментариям — находя таким образом сайты где мы уже зареганы и не нужно вводить каптчу при повторном прогоне.
6. Собираешь такую базу и прогоняешь по ним.

Что дает — программа каждый раз спамит в разыне новости.
Список успешных всегда находится в папке data\url_added_comments.db
Чтобы по кругу сайт проспамить, нужно перед запуском программы этот файл очистить.

Есть сайты на которых я могу делать рассылку сколько угодно без затрат.
Иснтрумент гибкий, просто нужно понять как пользоваться.

Извините если допустил арфаграфические ошибки и не ответил на все загадки программы ))
Писал в перебежке и спешке.

С наилучшими пожеланиями и с прошедшим Вас Рождеством!

Рубрика: Софт | Добавить комментарий

WebParser — Описание последних изменений и нового функионала

На данной странице в комментариях будет публиковаться описание последних изменений и нового функионала в новых релизах WebParser

Рубрика: SEO - софт, WebParser - Парсер поисковиков, Софт | Метки: , , | Добавить комментарий

WebParser — Парсер поисковиков

WebParser — Парсер поисковиков для сбора DLE, WordPress, phpBB и др сайтов

Качайте тут
WebParser Страница загрузки

Поиск баз DLE для AddNews WebParser

Последняя полная стабильная версия программы для многопоточного поиска DLE сайтов для addnews, замена butterfly, просто задаете название новости и имя автора и программа находит все сайты на которых данный автор опубликовал данную новость. Или просто указываете любой ключевой запрос. Работает с Google и Yandex. Теперь программа отлично ищет DLE, WordPress, Joomla, uCoz, phpBB движки. Также может просто выдавать вам список всех найденных ссылок, а вы анализируйте их сами. Работает очень шустро.
Это новая программа от компании CyberMake которая быстро развивается и набирает обороты занимая хорошее место на рынке программных продуктов.
В новой версии программы можно выполнять поиск dle сайтов для addnews и ucoz и всех других CMS сайтов даже в демо версии. А также выполнять поиск баз через яндекс и гугл одновременно! Полное описание и нструкцию читайте на официальном сайте CyberMake.ru. В данной версии полность переписан алгоритм очистки памяти, т.е. накопливаемого мусора в вашей оперативке в результате парсинга, что могло приводит, к зависанию программы.

Рубрика: SEO - софт, SEO (Search Engine Optimization) Поисковая оптимизация, WebParser - Парсер поисковиков, Софт | Добавить комментарий

SEO. Поисковая оптимизация в Google. SEO for Google. Часть 1.

Часть 1.


Для начала изучим что же говорят google специалисты про поисковую оптимизацию сайтов:

Что необходимо сделать, чтобы сайты был удобен для Google?
Именно об этом и пойдет речь.
Предоставьте посетителям необходимую информацию
Создайте высококачественное содержание для своих страниц, особенно для главной. Это самое важное. Если ваши страницы содержат полезную информацию, они будут привлекать множество посетителей, а веб-мастера будут добавлять ссылки на ваш сайт. При разработке полезного и информативного сайта создавайте страницы с четким и точным описанием их тематики. Подумайте, по каким ключевым словам пользователи будут искать ваши страницы, и включите эти слова в текст на сайте.

Приложите усилия, чтобы на других сайтах были ссылки на ваш сайт
Ссылки повышают вероятность обнаружения вашего сайта нашими сканерами и частоту его отображения в наших результатах поиска. При составлении результатов поиска применяются сложные методы сопоставления текста, чтобы показывать наиболее важные и релевантные страницы по каждому запросу. Ссылка со страницы А на страницу Б воспринимается как голос страницы А в пользу страницы Б. Голоса, полученные от страниц, которые считаются «важными», оцениваются выше, что делает более «важными» и страницы, получившие такой голос.

Отметьте, что наши алгоритмы могут отличать естественные ссылки от неестественных. Естественные ссылки на ваш сайт появляются в силу свойственной Интернету динамики, когда владельцы других сайтов обнаруживают на вашем сайте полезное содержание, которое, по их мнению, может заинтересовать их посетителей. Неестественные ссылки на ваш сайт размещаются специально, чтобы поисковые системы считали его более популярным, чем он есть на самом деле. Некоторые типы таких ссылок (например, схемы построения ссылок и дорвеи) рассмотрены в руководстве для веб-мастеров. Который вы можете скачать у нас на сайте по ссылке ниже.

Скачать руководство для веб-мастеров (PDF)

Для индексирования и определения рейтинга сайта полезны только естественные ссылки.

Обеспечьте легкий доступ к своему сайту
Создавайте сайт с использованием логической структуры ссылок. На каждую страницу должен быть доступен переход хотя бы по одной статической текстовой ссылке.

Для проверки своего сайта используйте текстовый браузер, например Lynx. Большинство «пауков» воспринимают ваш сайт подобно браузеру Lynx. Если из-за таких элементов, как JavaScript, файлы cookie, идентификаторы сеансов, фреймы, DHTML или Macromedia Flash, не удается просмотреть весь сайт в текстовом браузере, тогда и при сканировании могут возникнуть проблемы.

Чего не следует делать

Не заполняйте свои страницы списками ключевых слов, не пытайтесь публиковать разное содержание для поисковых систем и для пользователей, не создавайте страницы, предназначенные только для сканеров. Если сайт содержит страницы, ссылки или тексты, не предназначенные для посетителей, Google рассматривает такие ссылки и страницы как вводящие в заблуждение и может игнорировать такой сайт.

Необязательно обращаться к специалистам по поисковой оптимизации. Некоторые компании заявляют, что могут «гарантировать» высокий рейтинг вашего сайта в результатах поиска Google. Хотя серьезные консалтинговые фирмы могут улучшить структуру и содержание вашего сайта, другие применяют недобросовестные методы, пытаясь обмануть поисковые системы. Будьте осторожны: если ваш домен связан с применением таких недобросовестных методов, он может быть исключен из нашего индекса.

Не используйте изображения для показа важных имен и названий, а также другого важного содержания и ссылок. Наш сканер не распознает текст, содержащийся в изображениях. Если основное содержание и ключевые слова на вашей странице нельзя перевести в обычный HTML-формат, используйте атрибуты ALT.

Не создавайте несколько копий страницы под разными URL-адресами. Многие сайты содержат текстовые версии страниц и версии для печати, имеющие такое же содержание, как и соответствующие страницы с графикой. Чтобы обеспечить включение выбранной вами страницы в результаты поиска, необходимо блокировать доступ наших сканеров к копиям с помощью файла robots.txt. Подробнее об использовании файла robots.txt читайте в разделе о блокировке робота Google.

Скачать руководство для веб-мастеров (PDF)

SEO — статьи

Рубрика: SEO (Search Engine Optimization) Поисковая оптимизация, Поисковая оптимизация сайта | Добавить комментарий
 

Copyright (c) 2009 - 2013 CyberMake. All rights reserved.

Uploading of CyberMake's software products to any websites, including file-sharing websites, is forbidden. Google +