Успехи автоматизации
#1
Отправлено 30 сентября 2003 - 08:26
#2
Отправлено 01 октября 2003 - 14:43
Мы, к сожалению, только начали, поэтому охват еще не сильно велик :(, но мы работаем над этим:)
#3
Отправлено 02 октября 2003 - 08:22
И как вы понимаете лоад и стресс тесты?
#4
Отправлено 02 октября 2003 - 17:04
Не очень понятно что такое "smoke" тест кейсы
#5
Отправлено 03 октября 2003 - 04:15
Smoke tests - тесты на то, что система хоть как-то работает, что самая-самая ключевая функциональность реализована.
#6
Отправлено 03 октября 2003 - 06:34
Мы вроде уже обговаривали эту тему :)И как вы понимаете лоад и стресс тесты?
Редактор портала www.it4business.ru
#7
Отправлено 03 октября 2003 - 06:38
Это же вы...
А я теперь хочу ее с соло обговорить... ;)
#8
Отправлено 03 октября 2003 - 09:13
Итак:
smoke test - набор тест коейсов охватывающий основную функциональность системы, обычно идет за тестом инсталяции. Он определяет будет ли сисетма тестироваться дальше. Т.е. если какой-либо тест кейс из этого набора не пройдет, то кволити менеджер имеет право зареджектить билд не приступая к другим тестам.
У нас их гоняют как девелоперы, чтобы убедится что ссистема работает, так и мы. Но все больше, к сожелению, проявляется тенденция типа, "ну тестеры же есть, они и проверят:)))".
load: предположим что к системе есть требование, что вроде отклика(записи, чтения, рефреш списков etc.) должно равняться определенному значению при нагрузке от 50 до 500 юзеров. Мы нагружаем систему 500-ми юзерами и проверяем как ведет себя система.
stress: проверка(определение) предельной нагрузки системы, в принципе это силльно похоже на benchmarking. Т.е. например логгинг нескольких тысяч юзеров одновременно, сохранение и т.д.
#9
Отправлено 03 октября 2003 - 09:20
кстати вообще тестирование организовано так:
- инсталяция
- smoke
- bug regression
- standard
- performance(load, stress)
- secutity
..
Первая часть практически выполняется всегда, вторая в зависимости от назначения билда, сроков и т.д.
Это конечно не идеал, но работает:)
#10
Отправлено 03 октября 2003 - 11:12
#11
Отправлено 03 октября 2003 - 11:20
#12
Отправлено 03 октября 2003 - 11:53
Возьмите, к примеру,
http://www.qaforums....t=008461#000000
#13
Отправлено 03 октября 2003 - 12:14
#14
Отправлено 06 октября 2003 - 07:30
Неужто за 10% никто в своих попытках не вышел?
Особенно интересует мнение товарищей, которые провели сертификацию систем качества, как у вас это получилось без должного уровня автоматизации?
Редактор портала www.it4business.ru
#15
Отправлено 06 октября 2003 - 10:12
Майк.
#16
Отправлено 06 октября 2003 - 10:15
- смоук тесты проходили почти всегда, а когда нет, ручные тестеры обнаруживали баги быстрее. Зато переписывать их (тесты) приходилось довольно часто. Тут, впрочем, понятно - баги в смоуках обычно бывают при тестировании альфа-версии, когда автоматизация проблематична (хотя-бы потому, что ничего не работает :)).
Среди остальных багов, обнаруживаемых автоматическими тестами, по тестам баги распределялись следующим образом
60% - как-бы регрессионные тесты функционала , основанные, как правило, на циклах и больших наборах тестовых данных. Так как к интерфейсу старался не привязываться, переписывать их приходилось реже чем смоуки.
40% - интерфейсные тесты (была написана специальная утилита для захвата интерфейса (методом тыка - бегаем по всем менюшкам и открываем все окна (если элемент меню заканчивается на "...") и изучаем их) и последующего сравнения. Утилитка была хороша тем, что её практически никогда не приходилось переписывать при изменениях (за исключением злобного нарушения стандартов программерами).
В общем, по-моему, автоматизировать надо то, что автоматизируется легко и с удовольствием :) - а это, как правило - длинные рутинные тесты с большим количеством тестовых данных, которые ручным тестировщикам делать скучно и лень (поэтому неэффективно). Так в моей практике был пример теста, который в ручную выполнялся 12 дней(!), а в автоматизированном варианте - 3-4. Речь шла об импорте из ~200 форматов и последующем экспорте ещё в 5. Перебрать надо было всё. А открывались эти файлы минут по 10 (некоторые по 100-200Мb, а машинки у тестеров слабенькие). И кстати, за год тест отловил ~30 багов. Что очень неплохо (хотя в ручную, понятно, отловилось бы раза в 2 больше).
Майк.
#17
Отправлено 06 октября 2003 - 10:38
Если сервер приложений, на котором крутится отлаженная логика и известны все вызовы и ожидаемые результаты - другой вариант.
Редактор портала www.it4business.ru
#18
Отправлено 06 октября 2003 - 10:54
Согласен. 10-20% я имел в виду для типичных GUI-приложений, для консольных приложений (особенно батчевых) - может быть сильно больше. Сервер приложений - вообще совершенно отдельная тема (тут, кстати, тулзы для функционального тестирования вообще могут не годиться). Что до количества проектов - ну, сколько было <_< . Понятно, 30 проектов на одного "автоматизатора" это перебор, но "перезагруженность автоматизатора" - ситуация совершенно обычная, поэтому (тем более) грамотный отбор тестов на автоматизацию становится решающим фактором, определяющим успех или неуспех автоматизации тестирования вообще.Откуда цифры в 10-20% никак не пойму, тем более что вы указали очень серьёзное количество проектов. Как по мне то от специфики проекта зависит очень многое - если у меня консольный интерфейс (команд промтп навсегда) - это один бизнес.
Если сервер приложений, на котором крутится отлаженная логика и известны все вызовы и ожидаемые результаты - другой вариант.
Майк.
#19
Отправлено 06 октября 2003 - 11:04
Редактор портала www.it4business.ru
#20
Отправлено 06 октября 2003 - 11:45
Майк.
Количество пользователей, читающих эту тему: 0
0 пользователей, 0 гостей, 0 анонимных