it-swarm.dev

Comment puis-je me débarrasser des pages de catégorie dans Joomla

J'ai créé plusieurs catégories sur mon site Joomla pour que mes articles restent organisés, mais j'ai remarqué que Google peut voir ces catégories et que l'id et le nom de la catégorie sont ajoutés de manière aléatoire à la fin de mon URL.

Voici un exemple:

http://www.edesix.com/products/85-news

Cela n'a aucun sens pour moi. Et l'URL est très déroutant!

Existe-t-il un moyen d'empêcher Google d'afficher ces pages de catégorie et de les récupérer?

Merci

5
Laura

Cet article met en évidence un problème commun à Joomla et à d’autres systèmes de gestion de contenu. Sans la configuration correcte, de nombreuses URL différentes peuvent être indexées pour la même page.

Joomla applique un identifiant pour chaque catégorie et chaque article. Pour les liens générés automatiquement, tous les processus Joomla sont ces ID (par exemple,/236-category-name/121-article-name) - les noms de catégorie et les noms d'article supplémentaires ne sont pas pertinents. Et ces pages peuvent être indexées par les robots dans une gamme de variations (par exemple, boutons d'impression ou de courrier électronique, flux, fin /, ou fin index.php, etc.).

Si vous avez manqué le commentaire ci-dessus de @FFrewin, il vous fournira une explication plus détaillée à l'adresse Comment traiter le contenu dupliqué/les URL dans Joomla?

Je voudrais aller à la chasse sur les meilleures façons de résoudre ce problème, et ajouter quelques points.

vous le faites vous-même? Vous pourriez être le problème dans la façon dont vous avez configuré vos éléments de menu et ce que vous avez inclus dans votre sitemap.

Plusieurs éléments de menu pour la même page à partir de différents menus au lieu d'utiliser un seul menu et d'utiliser menu item alias pour créer un lien vers cet élément de menu préféré ou pour exécuter une extension de plan Sitemap sans bloquer/supprimer les doublons.

Créez un menu caché: un menu contenant des liens de menu directs vers toutes vos pages statiques qui ne sont pas déjà couvertes par des éléments de menu visibles. Cela force Joomla à définir par défaut le lien de cette page lors de l'affichage des pages.

Évitez de publier des catégories vides ou inutiles et des articles factices (supprimez-les ou, encore mieux, supprimez-les).

Il est également préférable d'éviter autant que possible les sous-catégories où la catégorie supérieure ne contient pas de pages. Si vous devez utiliser des catégories imbriquées, vous devez utiliser un plug-in de redirection pour rediriger la page de catégorie supérieure vide. Mieux encore, créez une page de présentation pour cette catégorie et associez-la à son propre élément de menu.

Pour les sites plus petits , vous pouvez facilement éviter les problèmes en configurant .htaccess, robots.txt et une extension de redirection d'URL pour les redirections 301.

Recherchez dans la catégorie JED Site Management la redirection d'URL http: //extensions.joomla.org/category/site-management

htaccess L'utilisation correcte de htaccess est probablement le moyen le plus puissant de gérer vos liens sur le site, mais elle nécessite un certain apprentissage. En utilisant votre fichier .htaccess Joomla, vous pouvez résoudre bon nombre de vos problèmes de duplication d’URL tels que la suppression des barres obliques de fin:

RewriteEngine On
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.+)/$ http://%{HTTP_Host}/$1 [R=301,L]

et routage des URL www et non www:

www vers une redirection non www

RewriteEngine On
RewriteCond %{HTTP_Host} www.example.com
RewriteRule (.*) http://example.com/$1 [R=301,L]

redirection non-www vers www

RewriteEngine On
RewriteCond %{HTTP_Host} ^example.com [NC] 
RewriteRule ^(.*)$ http://www.example.com/$1 [L,R=301]

Robots.txt (rappelez-vous que ce n'est là que pour guider l'activité du robot - il ne peut pas les arrêter.)

Configurez votre fichier robots.txt pour interdire toute URL comportant une chaîne de requête, c'est-à-dire un '?' d’être indexé, voir l’article sur le fichier robots.txt pour le code. Cela évite les problèmes de doublons d'UR en raison d'URL non SEF, mais aussi de chaînes de requête réelles, comme celles-ci:

`/contact.php`
`/contact.php?font-size=larger`

Voir cet article pour savoir comment configurer correctement votre fichier robot.txt: http: //joomlaseo.com/checklist/robots-txt-for-search-engines

Pour les sites de grande taille, l’utilisation d’une extension SEF est plus efficace, mais il faut apprendre à les utiliser. S'il est utilisé correctement, tous les problèmes d'URL en double seront résolus. Cependant, s’ils ne sont pas utilisés correctement, vous pourriez empêcher les robots d’indexer vos pages.

Recherchez dans le JED sous la catégorie Gestion du site l’extension SEF qui vous convient le mieux. http: //extensions.joomla.org/category/site-management

Enfin, comme indiqué, la console de recherche Google vous permet de bloquer l’indexation de liens spécifiques.

Il s’agit d’une recommandation adressée à Google. Souvent, elle ne résout pas le problème. Pour les sites de grande taille, cela peut prendre beaucoup de temps de couvrir toutes les options possibles. Encore une fois, si votre sitemap comprend plusieurs liens pour la même page, vous travaillez contre vous-même.

3
garth

Dans votre console Google Webmaster (console de recherche Google), vous pouvez fermer n'importe quelle URL à partir de l'indexation par le moteur de recherche Google.

0
stckvrw