Difference between revisions of "PO - 08 - Оценка"
(Created page with "= Цель = Понять роль ПО в оценке BI = Тезисы = Причины почему реальность не совпадает с оценками?...") |
|||
Line 25: | Line 25: | ||
Полезно составить DoD куда бы вошли все важные этапы: анализ, архитектура, дизайн технический, дизайн UI и UX, учет имеющейся codebase, собственно разработка, тестовое покрытие, поиск и отслеживание рисков, документация техническая, документация пользовательская, тестирование через реалистичные сценарии, интеграция, выпуск, мониторинг и поддержка на продакшн | Полезно составить DoD куда бы вошли все важные этапы: анализ, архитектура, дизайн технический, дизайн UI и UX, учет имеющейся codebase, собственно разработка, тестовое покрытие, поиск и отслеживание рисков, документация техническая, документация пользовательская, тестирование через реалистичные сценарии, интеграция, выпуск, мониторинг и поддержка на продакшн | ||
− | ВАЖНО #1: При этом НЕ делать работу за них. | + | ВАЖНО #1: При этом НЕ делать работу за них. Даже если знаем - намного лучше не дать им готовый ответ "вам нужно тестирование", а задать вопрос "а запланировали ли мы время, на то, чтобы убедиться что код работает". И не только потому что мы типа надругаемся над их автономностью, а потому что сделаем за них раз - сядут и ножки свесят, и еще отвественность на нас переложат. |
ВАЖНО #2: НЕ НАДО бояться требовать от команды соотвествия DoD. То что они "не могут" - это их проблема, должны подтягивать свой уровень. Одна из причин по которой у команд бывает "корона на голове" - как раз потому что PO не достаточно требовательны в соблюдении DoD. | ВАЖНО #2: НЕ НАДО бояться требовать от команды соотвествия DoD. То что они "не могут" - это их проблема, должны подтягивать свой уровень. Одна из причин по которой у команд бывает "корона на голове" - как раз потому что PO не достаточно требовательны в соблюдении DoD. | ||
Line 42: | Line 42: | ||
- Выявление рисков которые могут повлиять на оценку и закладывание резерва под конкретные риски (в этом отличие от буфера). | - Выявление рисков которые могут повлиять на оценку и закладывание резерва под конкретные риски (в этом отличие от буфера). | ||
− | 2) Основная часть по подготовке к оценке должна проводиться на refinement! Если надо - следует создавать | + | 2) Основная часть по подготовке к оценке должна проводиться на refinement! Если надо - следует создавать architecture spike and business spike |
3) Методики типа PERT ( (optimistic + 4 * average + pessimistic) / 6 ) | 3) Методики типа PERT ( (optimistic + 4 * average + pessimistic) / 6 ) | ||
[[Category:Product Owner (курс)]] | [[Category:Product Owner (курс)]] |
Revision as of 02:28, 18 February 2021
Цель
Понять роль ПО в оценке BI
Тезисы
Причины почему реальность не совпадает с оценками?
- Не понимали что делать/делали не то/пришлос переделывать
- Слишком большой кусок для оценки, потерялись, не справились
- Просто забыли/заранее не знали часть работ которые надо делать
Первые два в принципе покрываются отвественностью ПО за постановку целей, за оценку и оптимизиацию value, за организацию и проведение refinement.
На интересует третье:
Аксиома: команда отвественна за выдачу оценок (estimation), и PO не может и не должен навязывать свою оценку.
Однако означает ли это что PO совсем не должно заботить насколько качественная оценка? Конечно же нет.
1) PO в том числе отвечает что бы у команды был definition of done который бы устраивал пользователей, стейкхолдеров и споносоров.
2) PO в праве требовать чтобы оценка учитывала DoD.
Полезно составить DoD куда бы вошли все важные этапы: анализ, архитектура, дизайн технический, дизайн UI и UX, учет имеющейся codebase, собственно разработка, тестовое покрытие, поиск и отслеживание рисков, документация техническая, документация пользовательская, тестирование через реалистичные сценарии, интеграция, выпуск, мониторинг и поддержка на продакшн
ВАЖНО #1: При этом НЕ делать работу за них. Даже если знаем - намного лучше не дать им готовый ответ "вам нужно тестирование", а задать вопрос "а запланировали ли мы время, на то, чтобы убедиться что код работает". И не только потому что мы типа надругаемся над их автономностью, а потому что сделаем за них раз - сядут и ножки свесят, и еще отвественность на нас переложат.
ВАЖНО #2: НЕ НАДО бояться требовать от команды соотвествия DoD. То что они "не могут" - это их проблема, должны подтягивать свой уровень. Одна из причин по которой у команд бывает "корона на голове" - как раз потому что PO не достаточно требовательны в соблюдении DoD.
А когда всё равно нельзя оценить?
Бывает такое, на то у нас и эмпирический процесс.
Что важно помнить:
1) Буфер - это предосудительная практика. Показатель непрофессионализма.
Правильно: - Отражать уверенность в оценке давая её в диапазоне. Чем выше уверенность - тем уже диапазон. Cone of uncertainty.
- Выявление рисков которые могут повлиять на оценку и закладывание резерва под конкретные риски (в этом отличие от буфера).
2) Основная часть по подготовке к оценке должна проводиться на refinement! Если надо - следует создавать architecture spike and business spike
3) Методики типа PERT ( (optimistic + 4 * average + pessimistic) / 6 )