[Top][All Lists]
[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
[QSOS-general] new user / questions
From: |
thomas |
Subject: |
[QSOS-general] new user / questions |
Date: |
Mon, 27 Oct 2008 17:32:23 +0100 |
User-agent: |
Thunderbird 1.5.0.12 (X11/20071219) |
Hi,
Congratulation for the QSOS methodology and the tools. I would like to
use the method to evaluate genome browsers (software used by biologists)
and I have a few questions, can you please help me to clarify those
points if possible :
- can a user suggest new criteria/tools or comment an evaluation ? if
yes, how to achieve this ?
- Is it possible to have multiple evaluations of one tool and take the
average for scoring rather than having a single reference evaluation ?
- What is the algorithm that calculate the score based on the
evaluation and the ponderation ? How are the non scored criteria dealt
with ?
- Does it matter if scored criteria are at different level in the
evaluation tree ? how does it impact the scoring if a scored criteria is
at level 6 or 7 ?
- we wish to allow users to list the tools accordingly to their need. I
read in the manual that o3s had 2 selection modes : srtict and
permissive. How can I activate one mode or the other ? Is there any
guideline in the generated web page to help user during the ponderation
step ?
- Is it possible to normalise non scored criteria (date, restricted
list, ...) and to let the user request on non scored criteria during the
ponderation step ? For example a non scored criteria for my evaluation
would be "1st release date" and the user could query tools released
after the year of their choice.
Thank you for your help,
Thomas
---------------------------------------------------------------------------------------------
Bonjour,
Félicitation pour votre méthode d'évaluation et vos outils qui sont très
intéressant.
Je souhaite utiliser la méthode QSOS pour un projet d'évaluation de
genome browser (c'est un type de logiciel utilisé par des biologistes).
Je me pose quelques questions, merci de m'éclairer si possible :
- comment un utilisateur peut-il suggérer des critères/outils ou
commenter une évaluation ?
- est-il possible d'avoir plusieurs évaluations concurrentes d'un même
outil et de faire une moyenne plutôt que d'avoir une seule évaluation de
référence ?
- Quel est l'algorithme qui permet de calculer un score en fonction de
l'évaluation et la pondération ? Comment sont traités les critères non
notés ?
- Cela a t-il une influence si les critères notés sont a des niveaux
d'arborescence différent dans l'arbre d'évaluation ? Que se passe t'il
si un critère notés se retrouve a un niveau d'arborescence 6 ou 7 ?
- nous souhaitons offrir la possibilité à l'utilisateur de lister les
outils correspondant à ses besoins. J'ai lu dans la doc que o3s avait 2
modes de sélections : stricte et souple. Comment activer l'un ou l'autre
mode ? Y a-t-il des consignes sur la page générée par o3s pour guider
l'utilisateur lors de la pondération (critère critique ou optionnel)?
- a propos des critères non notés, est-il possible de normalisé le
champ (date, liste prédéfinie,...) et de faire une requête sur les
critères non noté lors de la phase de pondération de l'utilisateur ? Par
exemple un critère non noté de mon évaluation serait "1st release date"
et l'utilisateur pourrait lister les outils sortient uniquement après
telle année.
Merci de votre aide,
Thomas
[Prev in Thread] |
Current Thread |
[Next in Thread] |
- [QSOS-general] new user / questions,
thomas <=