Слава, если не секрет, кто же из них разрабатывает тестовые сценарии -- аналитик или тестировщик?
Из списка метрик это явно не следует, поэтому я уточняю.
Критерии оценки
Автор Ol'ga, 02 авг 2004 12:14
Сообщений в теме: 21
#21
Отправлено 22 сентября 2004 - 08:02
Алексей Баранцев
Тренинги для тестировщиков (тестирование производительности, защищенности, тест-дизайн, автоматизация):
Линейка тренингов по Selenium
Тренинги для тестировщиков (тестирование производительности, защищенности, тест-дизайн, автоматизация):
Линейка тренингов по Selenium
#22
Отправлено 22 сентября 2004 - 09:16
И почти вполне нормальное соотношение ;) .Результаты оказались интересными - из 100% проделанной работы, именно ошибками, которые пошли в работу и будут исправляться, оказались лишь 47%. То есть более 50% можно признать "браком".
То есть оценить работу можно (особенно, если работа в целом ведётся довольно формально, приоритеры устанавливаются жестко) и баг-трекер позволяет строить более-менее приличные выборки.
1) По опыту, нормальной долей багов с resolution:Can't reproduce являeтся 5-10%. Некоторое количество таких багов неизбежно в любом случае, а уменьшение этого соотношения достигается существенным увеличением времени на проверку багов перед их занесением.
2) Баги с resolution:"As Designed" - вообще, зачастую, не вина тестера, а вина функционального аналитика (если тесты пишутся по спецификации) либо тех. писателя (при тестировании по документации), не говоря уже о том, что в "As Designed" зачастую записываются баги usability, которые по каким-то причинам решено не фиксить. Так что использовать напрямую их число для оценки работы _тестера_, мне кажется, неправильно.
3) Feature Request - это вообще не баги, и учитывать их надо отдельно (то есть, смотреть соотношению принятых и отвергнутых FR)
Best regards,
Майк.
Майк.
Количество пользователей, читающих эту тему: 0
0 пользователей, 0 гостей, 0 анонимных