Différences entre les versions de « Page web personnelle »
Ligne 104 : | Ligne 104 : | ||
[[File:Attention.png|30px]] Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier. | [[File:Attention.png|30px]] Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier. | ||
− | + | Pour autoriser tous les robots à accéder à votre page web, | |
− | + | créer dans le répertoire <tt>HOME/public_html/</tt> un fichier <tt>robots.txt</tt>. | |
− | + | Ensuite, incorporez le code suivant dans <tt>robots.txt</tt>: | |
− | < | + | <pre> |
− | Disallow:</ | + | User-agent: * |
− | + | Disallow: | |
− | + | </pre> | |
− | < | + | Si vous désirez interdire l'accès au site à tous les robots, |
− | Disallow: /</ | + | Changez le code pour: |
− | + | <pre> | |
− | + | User-agent: * | |
− | < | + | Disallow: / |
− | Disallow: / | + | </pre> |
+ | Finalement, pour interdire à tous les robots, sauf Googlebot, l'accès au dossier <tt>toto</tt>, | ||
+ | Changez le code pour: | ||
+ | <pre> | ||
+ | User-agent: * | ||
+ | Disallow: /toto | ||
User-agent: googlebot | User-agent: googlebot | ||
− | Disallow:</ | + | Disallow: |
+ | </pre> | ||
== Création de votre page web à l'aide de WebDépôt== | == Création de votre page web à l'aide de WebDépôt== |
Version du 8 septembre 2015 à 14:39
Le Département offre d'héberger les sites web des détenteurs d'un compte DMS sur son serveur. L'adresse du site sera alors http://www.dms.umontreal.ca/~usager/ où usager est votre nom d'utilisateur au DMS.
Cette page ne doit pas être confondue avec la page profil, une page générée automatiquement pour tous les étudiants aux cycles supérieurs et les professeurs.
Dans ce qui suit, la procédure conduisant à la création de votre page web personnelle est détaillée.
Création de votre page web
Pour créer votre page web http://www.dms.umontreal.ca/~USAGER/, où USAGER est votre nom d'usager au DMS, il faut :
- Créer dans votre espace usager un répertoire public_html:
mkdir $HOME/public_html
- Changer le type d'accès au répertoire permis:
chmod o+x $HOME chmod o+rx $HOME/public_html
Vous pouvez maintenant créer votre page web. Par exemple, vous pouvez créer une page nommée index.html (le nom de la page d'accueil par défaut) dans votre répertoire $HOME/public_html/ à partir du code suivant:
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Strict//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd"> <html lang="fr" dir="ltr"> <head> <title>TEST</title> <head> <body> TEST </body> </html>
En vous rendant maintenant au http://www.dms.umontreal.ca/~USAGER/, vous obtenez une page de titre « TEST ».
Votre fichier doit être enregistré avec l'encodage ISO-8859-1.
Contrôle de l'accès
Vous avez la possibilité de contrôler l'accès à certains répertoires en permettant seulement aux usagers autorisés d'y accéder. Par exemple, si vous avez besoin de protéger le répertoire public_html/toto/, accessible sur le web à l'adresse http://www.dms.umontreal.ca/~USAGER/toto/, vous devez créer, dans ce répertoire toto, un fichier .htaccess contenant les éléments suivants:
AuthUserFile /home/USAGER/public_html/toto/sec/.htpasswd AuthGroupFile /dev/null AuthName "Toto's protected files" AuthType Basic Options -Indexes <Limit GET> require valid-user </Limit>
La ligne Options -Indexes est néccessaire lorsque vous désirez empecher vos visiteurs de lister les fichiers contenus dans toto.
Vous pouvez à présent créer un répertoire qui contiendra le fichier .htpasswd:
mkdir $HOME/public_html/toto/sec
Le fichier .htpasswd sert à contenir la liste des usagers ainsi que leurs mots de passe encryptés. Ces noms d'usagers n'ont pas de lien avec les noms d'usagers au DMS. Pour créer le fichier .htpasswd et ajouter le premier utilisateur, USAGER1 à la liste, entrez
htpasswd -c $HOME/public_html/toto/sec/.htpasswd USAGER1
Après avoir entré la commande, on vous demandera d'entrer le mot de passe pour cet utilisateur. Pour ajouter d'autres utilisateurs "USAGERi" à votre liste, entrez
htpasswd $HOME/public_html/toto/sec/.htpasswd USAGERi
et ensuite le mot de passe correspondant.
Bloquer la lecture de votre répertoire
Pour protéger votre répertoire public_html du regard des autres usagers du DMS, connectez-vous d'abord au serveur euler avec la commande
ssh euler
Entrez maintenant les commandes suivantes:
chmod 770 $HOME/public_html -R chmod g+s $HOME/public_html sudo chgrp 48 $HOME/public_html -R
Après avoir entré ces commandes, seul l'usager (vous-même) et le serveur de fichiers, euler, le seul membre du groupe "48", avez l'autorisation de lire, écrire ou exécuter un des fichiers de votre répertoire public_html. Le serveur ne peut accéder à vos fichiers qu'à travers votre page web. Pour plus d'informations sur les commandes précédentes, consultez les pages portant sur chmod ainsi que sur chgrp.
Si vous créez plus tard d'autres fichiers ou d'autres répertoires dans public_html, ceux-ci seront, par défaut, accessibles en lecture pour tous les usagers du DMS. Pour rétablir la situation, vous devrez entrer
chmod o-rwx $HOME/public_html -R
afin de corriger les permissions à vos nouveaux fichiers.
protocole d'exclusion robot.txt
Le protocole d'exclusion des robots est une ressource de format texte qui peut être placée à la racine d'un site web, et qui contient une liste des ressources du site qui ne sont pas censées être indexées par les robots d'indexation des moteurs de recherche.
L'usage de robots.txt vous permet donc de controler si, oui ou non, votre page personelle se retrouvera dans la page de résultats d'un moteur de recherche.
Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier.
Pour autoriser tous les robots à accéder à votre page web, créer dans le répertoire HOME/public_html/ un fichier robots.txt. Ensuite, incorporez le code suivant dans robots.txt:
User-agent: * Disallow:
Si vous désirez interdire l'accès au site à tous les robots, Changez le code pour:
User-agent: * Disallow: /
Finalement, pour interdire à tous les robots, sauf Googlebot, l'accès au dossier toto, Changez le code pour:
User-agent: * Disallow: /toto User-agent: googlebot Disallow:
Création de votre page web à l'aide de WebDépôt
Il est aussi possible d'héberger une page web par l'entremise du service de dépôt de fichiers WebDépôt.