Дайте поради по сайту та adsens

О

Олександр Бабак

Новичок
Реєстрація
21.01.2023
Повідомлення
10
Репутація
0
Вік
29
Привіт всім. Маю сайт новин на цмс чи правильніше на нормальному скрипті: free-news.com.ua. Створив більше ніж пів року тому, потім згадав про нього як з'явився час, тепер думаю доколихати його.
Якщо можите дайте поради як можна покращити сайт, можливо щось десь не правильно. В даний час вдосконалювати кодом не збираюся так як в майбутньому обновлення скрипту зіпсують всі вдосконалення. Також підскажіть як правильно пройти Adsens модерацію? Вродь правила Adsens сайт не порушує.
 
Останнє редагування модератором:
Привіт!
  1. Для новинних сайтів дуже важливою є щоденна публікація новин (навіть по 1-3 новини), але це має бути кожен день.
  2. Також на вашому місці, я б зробив якийсь профайл журналіста. Тобто, сторінка на якій буде: фото, ПІБ автора статей, освіта і т.д. Це мало того, що це викликає довіру у користувача, так ще й може вплинути на трафік зі сторони Google.
  3. Спробуйте додати сайт в Google новини і ukr.net новини. Але перед подаванням заявки, раджу хоча б тижні зо 2 публікувати щоденно по кілька новин на день.
  4. Що стосується модерації в Адсенс, то дивіть пункт 2 (він може також допомогти.)
 
І не забувайте про рерайт новин - як на мене це важливо навіть сьогодні.
Також групи групи/канали в соціальних мережах обов'язкові.
 
Привіт!
  1. Для новинних сайтів дуже важливою є щоденна публікація новин (навіть по 1-3 новини), але це має бути кожен день.
  2. Також на вашому місці, я б зробив якийсь профайл журналіста. Тобто, сторінка на якій буде: фото, ПІБ автора статей, освіта і т.д. Це мало того, що це викликає довіру у користувача, так ще й може вплинути на трафік зі сторони Google.
  3. Спробуйте додати сайт в Google новини і ukr.net новини. Але перед подаванням заявки, раджу хоча б тижні зо 2 публікувати щоденно по кілька новин на день.
  4. Що стосується модерації в Адсенс, то дивіть пункт 2 (він може також допомогти.)
Дякую за таку розгорнуту відповідь.
В даний час я думаю що сайт не проходить модерацію :
1- Іза того що немає масових новин, то пто як ви писали хачаб по 2-3 новини щодня.
2- мала кількість відвідувань сайту.
(" Так як по правилах Адсенс начебто сайт нічого не порушує")
Під другим пунктом ви мали на увазі " Правила Google для видавців"?
Вибачте можливі банальні питання, я просто в модерації Гугл нічого не знаю ,а в вільному доступі не знайшов відповіді на мої питання.(((
 
Справа в тому, що кілька років тому, Google увів таке поняття як EAT-фактори, що перекладається як: експертність, авторитетність і достовірність. Це те, про що я писав у у другому пункті повідомлення. Тобто, ви повинні показати пошуковій системі Google, а у вашому випадку і модераторам що ви експерт своєї справи. Якщо ви не є фаховим журналістом і ваш сайт не є легальним виданням, то ви повинні спробувати переконати Google в цьому. Це дуже клопітка робота, яка складається із багатьох пунктів.
 
Вибачте можливі банальні питання
Нічого страшного - для цього і є форум.
я просто в модерації Гугл нічого не знаю ,а в вільному доступі не знайшов відповіді на мої питання.(((
Вони приймають тільки ті сайти, які на їх думку якісні (значить вони не рахують ваш сайт таким). Попрацюйте над EAT-факторами.
Але якщо у вас трафік 100-300 відвідувачів на добу, то я навіть не знаю, чи варто поки заморочуватися з Адсенсом.
 
І не забувайте про рерайт новин - як на мене це важливо навіть сьогодні.
Також групи групи/канали в соціальних мережах обов'язкові.
Підскажіть будласка. В мене є сторінки на сайті які в ходять в групу не проіндексовані. Через інструмент я подав заявку видалити їх але вони не пропали через деякий час з пункту не проіндексовані сторінки. Чи можливо їх потрібно заблокувати для Googlebot через файл robots.txt?
Загалом хочу позбутися даної ситуації . 90% з цих сторінок будуть видалятися.


 
Питання в тому що то за сторінки, що не проіндексовані: це новини, категорії, сторінки пагінації і т.д. Тому, що категорії, новини - мають індексуватися, а ось сторінки сортування, сторінки з параметрами - ні! Сторінки які не мають бути в індексі, закриваються тегом "noindex", чи у файлі Robots.txt
 
Ви не правильно розумієте "Інструмент видалення URL" в Search Consol - він використовуєтся для тимчасового видалення з індексу сторінок, які вже проіндексовані, а тут у вас проблема з індексацією.
Як я вже сказав: якщо це не потрібні сторінки, то закривайте іх в Robots.txt, а краще тегом noindex.

PS. Не проіндексована сторінка це не завжди погано. Можливо вона і не має бути проіндексована (читайте пояснення в консолі).
 
Останнє редагування:
Ви не правильно розумієте "Інструмент видалення URL" в Search Consol - він використовуєтся для тимчасового видалення з індексу сторінок, які вже проіндексовані, а тут у вас проблема з індексацією.
Як я вже сказав: якщо це не потрібні сторінки, то закривайте іх в Robots.txt, а краще тегом noindex.

PS. Не проіндексована сторінка це не завжди погано. Можливо вона і не має бути проіндексована (читайте пояснення в консолі).
Можливо ви поможите ще з одним моїм питанням. Створюю нову сторінку , вручну індексую , години через 2-3 інструмент показує що вана проіндексована та може відображатися в пошуку. Але в пошуку вона відображається через 1-1.5 доби.
 
Створюю нову сторінку , вручну індексую , години через 2-3 інструмент показує що вана проіндексована та може відображатися в пошуку. Але в пошуку вона відображається через 1-1.5 доби.
Це нормальна ситуація - добре, що з'являється в пошуку (якщо ви про те, чому не з'являється миттєво). Щодо того, що пише, що не може відображатися в пошуку - хз, може якийсь глюк Google.
 
Це нормальна ситуація - добре, що з'являється в пошуку (якщо ви про те, чому не з'являється миттєво). Щодо того, що пише, що не може відображатися в пошуку - хз, може якийсь глюк Google.
Ні я мав на увазі що пише типу все добре, але якщо прописати пряму адресу проиндексованої сторінки то її немає в пошуку. Вона починає відображатися лише через 1-1.5 доби . На прошлій неділі начебто коли сторінка була проіндексована то відразу з'являлася і в пошуку.
Підскажіть ще одне. Я хочу видалити всі ті сторінки що не проиндексовані. ( Вони пропадуть з інструменту автоматично, чи прийдеться заборонити доступ через robots.txt? І також цікавить якщо сторінки будуть внесені в robots.txt а потім видалені з сайту , і з часом вони видаляться з robots.txt ( щоб не було зайвих там не інснуючих адрес) вони більше не будуть появлятися в інструментах?
 
Ні я мав на увазі що пише типу все добре, але якщо прописати пряму адресу проиндексованої сторінки то її немає в пошуку.
У вас надто "молодий" сайт, щоб статті залітали відразу у індекс. Якщо в майбутньому сайт вдастся розкрутити, то цілком можливо, що нові новини будуть з'являться за 5-10 хв в індексі навіть без відравки на індексацію, але за раз поки так.
Я хочу видалити всі ті сторінки що не проиндексовані.
Вони пропадуть з інструменту автоматично, чи прийдеться заборонити доступ через robots.txt?
Ви не правильно розумієте інструмент видалення URL. Бо він використовуються для ТИМЧАСОВОГО видалення (на термін до 6-ти місяців) сторінок, які в же проіндексовані і знаходятяться в пошуку. У вашому випадку, треба закривати в robots txt і в майбутньому правило не видаляти з цього файлу, якщо сторінки все ще будуть на сайті.

Дайте приклади url, які не проіндексовані (просто цікаво, що це за сторінки і яка причина, що вони не проіндексувалися).
 
Як ви заблокуєте непотрібні сторінки в robots.txt в в консолі через 1-2 тижні, почнуть з'являтися попередження, що сторінка заблокована роботсом. В мене їх немає, бо я блокую тегом noindex.

 
У вас надто "молодий" сайт, щоб статті залітали відразу у індекс. Якщо в майбутньому сайт вдастся розкрутити, то цілком можливо, що нові новини будуть з'являться за 5-10 хв в індексі навіть без відравки на індексацію, але за раз поки так.

Ви не правильно розумієте інструмент видалення URL. Бо він використовуються для ТИМЧАСОВОГО видалення (на термін до 6-ти місяців) сторінок, які в же проіндексовані і знаходятяться в пошуку. У вашому випадку, треба закривати в robots txt і в майбутньому правило не видаляти з цього файлу, якщо сторінки все ще будуть на сайті.

Дайте приклади url, які не проіндексовані (просто цікаво, що це за сторінки і яка причина, що вони не проіндексувалися).
Деякі з них:
https://free-news.com.ua/іlon-mask-poyasniv-navіshcho-yomu-tak-bagato-dіtey
Ця не враховується так як сьогодні добавив в robots.txt :
На скільки є у мене знання та інформація , то Гугл рахує дані сторінки 100% копірайтом , топто дані сторінки не являються актуальними для читачів.
 
Сторінки новин, категорично не рекомендую забороняти індексувати, бо вони можуть пізніше з'явитися в індексі. Те, що заблокували сторінку контактів - правильне рішення.
Треба думати, чому новина не потрапляє в індекс і намагатися це виправляти:
  1. Google рахує її недостатньо якісною
  2. Вона надто коротка
  3. Не унікальна
 
А ось на такі сторінки можна буде в майбутньому збирати трафік: free-news.com.ua/arkh%D1%96v Для цього треба прописати нормальні: title, description, h1. + в ulr бачу, що url мав би бути повністю латиницею, на натомість він в перемішку з кирилицею (скоріш за все буква "і").
 
Сторінки новин, категорично не рекомендую забороняти індексувати, бо вони можуть пізніше з'явитися в індексі. Те, що заблокували сторінку контактів - правильне рішення.
Треба думати, чому новина не потрапляє в індекс і намагатися це виправляти:
  1. Google рахує її недостатньо якісною
  2. Вона надто коротка
  3. Не унікальна
Я хочу заборонити індексувати дані сторінки та видалити їх з сайту повністю, можливо через місяць потім почищу robots.txt від сміття ( битих url). Так як вони були створені за допомогою RSS. Та хочу наповнювати сайт статтями які написані в ручну чи переписані з інших сайтів ( типу переказані своїми словами), якщо не помиляюсь це рерайт новин ( згадувалося раніше в даній темі).
Взагалі даний скрипт ( cms) розрахований щоб люди могли заробляти задопомогою написаних новин ( статутів) , топто там є підрахунок переглядів і запевну кількість переглядів платяться гроші. Головне розкрутити сайт хочаби до 500 відвідувачів на добу. Тоді можна запускати і рекламу про заробіток на сайті.
 
Я хочу заборонити індексувати дані сторінки та видалити їх з сайту повністю, можливо через місяць потім почищу robots.txt від сміття ( битих url).
Тоді просто видаляйте з сайту і не треба нічого забороняти в robot.txt. Головне, щоб CMS правильно видавала код відповіді 404 (сторінка назавжди видалена, чи переміщена) і тоді Google зрозуміє що до чого і будь-які згадки про ці сторінки зникнуть з консолі, але на це потрібен час.
 
А ось на такі сторінки можна буде в майбутньому збирати трафік: free-news.com.ua/arkh%D1%96v Для цього треба прописати нормальні: title, description, h1. + в ulr бачу, що url мав би бути повністю латиницею, на натомість він в перемішку з кирилицею (скоріш за все буква "і").
Ну над title, description, ще потрібно набити руку. А то досить часто Гугл в мене бере description з середини статті. А за літеру "i" дякую що вказали, буду писати розробнику щоб виправляв , а то кожного разу переписувати url можу забувати.
Я так розумію якщо url сторінки з символами то Googlebot може також одсіювати з індекса?
 
Назад
Зверху