ancés sur le réseau Internet comme des
pieuvres à l'affût, les agents intelligents
déchaînent les passions depuis leur création.
Ces logiciels informatiques, programmés pour parcourir
des sources d'informations innombrables, deviennent pour
beaucoup d'entre nous des outils inévitables dès
lors que l'on cherche de l'information sur Internet.
Mais, pour optimiser l'efficacité de ces agents intelligents,
encore faut-il les connaître. Les grandes familles,
leurs points forts, leurs points faibles, les meilleures
techniques de programmation
Nous vous proposons maintenant une sélection des
meilleurs agents intelligents disponibles sur le Net.
Les
méta-moteurs
Les méta-moteurs ne sont pas des agents intelligents
stricto-sensus.
Ce sont plutôt des supers moteurs qui interrogent
en même temps plusieurs moteurs de recherche. Parfaits
pour une recherche d'informations exhaustive, ils sont soient
consultables en ligne - Meta-crawler
ou Profusion
- soit à installer sur son disque dur pour une recherche
off-line : Webferret
ou le célèbre Copernic
font parti de ceux-là.
L'autre avantage des méta-moteurs est qu'ils nettoient
les résultats : liens morts, doublons
Un gain
de temps énorme donc, par rapport à une recherche
sur un moteur de recherche traditionnel.
Les agents de recherche
Si vous désirez mettre en place une veille solide
et ne passer à côté d'aucune information,
les méta-moteurs ne suffisent pas et il faudra passer
au niveau supérieur : les agents de recherche avancés.
A télécharger sur son ordinateur -comme pour
les méta-moteurs, les possibilités n'en seront
que décuplées puisque l'agent utilisera la
mémoire de votre ordinateur - , ces programmes vous
donneront accès à plus de sources d'information
et vous permettront de mieux affiner vos recherches et vos
résultats.
Parmi les plus connus, on trouve digout4U
, webseeker
ou Stratégicfinder
, dont la deuxième version a beaucoup fait parler
d'elle.
L'intérêt ici est de savoir où ces agents
vont aller chercher l'information : pour Strategicfinder
par exemple, les sources habituellement fermées sont
accessibles, comme le " web invisible ", celui
que les moteurs de recherche traditionnels ne couvrent pas.
Notamment les pages des sites dynamiques difficilement référençables
et les bases de données institutionnelles.
Les surveillants
Ceux-là répondront au doigt et à l'il
à vos demandes les plus précises. Vous voulez
vous tenir au courant d'un changement sur un site en particulier
ou savoir si de nouvelles informations ont été
publiées sur telle source : les surveillants sont
là pour ça.
Ils fonctionnent avec des mots-clé et des sources
à surveiller. Dès qu'un changement apparaît,
il vous avertit, soit par mail, soit dans un espace privé
sur le web de l'agent.
Parmi les plus connus, on trouve Mindit
ou The
informant
Les
aspirateurs
Pour faire face au renouvellement incessant de l'information
sur des sites précis, les aspirateurs de sites vont
beaucoup plus loin que les A.I. type " The Informant
". Ces programmes copient l'intégralité
ou une partie d'un site sur votre disque dur que vous pouvez
ensuite consulter à loisir hors connexion. Des alertes
sont prévues au moindre changement mais les aspirateurs
deuxième génération permettent de déclencher
ces alertes seulement quand un changement intéressant
pour vous survient. Citons Webmirror
, Nearsite
ou, pour les plus récents, Net
Attaché Pro ou Webspector
. Un exemple avec Memoweb
qui vous permet d'aspirer au choix un site entier, une seule
page, une photo ou tout autre type de fichier trouvé
sur le web.
Les agents " appliqués "
Comprenez les agents appliqués à une tâche
bien précise, comme les shopbots, ces agents intelligents
capables de chercher sur le web les offres de produit et
de ramener les plus intéressantes, c'est à
dire les moins chers. Un des plus connus est sûrement
celui de Kelkoo
, " le site qui trouve tout au meilleur coût
".
Vous le voyez, la famille est grande et vue les besoins
et la forte demande pour passer moins de temps à
chercher de l'information sur Internet, elle est promise
à grandir encore.
A se modifier aussi : les différentes familles d'agents
tendent à se ressembler et chaque agent devra bientôt
pouvoir tout faire. Il devra surtout être personnalisable,
chercher dans un grand nombre de sources et surveiller en
même temps une page.
Enfin, il reste tout de même un dernier enjeu qu'il
va falloir relever : la compréhension du sens et
du langage naturel. Les agents intelligents n'ont pas fini
d'évoluer.
NDLR : Pour approfondir le sujet, pensez à venir à la Conférence dédiée à la Veille sur Internet, le 26 mars 2001 de 14h à 18h à Bordeaux. Olivier Andrieu, Cybion, Arisem, Voila.fr et Webhelp répondront à vos questions.
Pour ceux qui ne peuvent pas venir à Bordeaux, des relais visioconférences sont mis en place à Paris, Toulouse, Pau, La Rochelle, Lorient et Poitiers.
CLIQUEZ pour connaître tous les détails et pour vous inscrire.
Webreport
|