15 вопросов, 7–10 минут. Вопросы усложнены: метрики, промо, управление исключениями, ограничения и практика IBP. В каждом вопросе — 4 правдоподобных варианта и только один правильный ответ.
15 questions, 7–10 minutes. Harder version: metrics, promos, exception management, constraints and IBP practice. Each question has 4 plausible options with one correct answer.
1. На monthly IBP / Demand Review спорят о «единой цифре» прогноза. Что правильнее всего утверждать как output встречи?
1. In a monthly IBP/Demand Review, people debate the “single number” forecast. What is the best output of the meeting?
2. Что корректнее всего использовать вместо MAPE для оценки точности на уровне ассортимента, где много «малых» SKU и есть нули?
2. What is the best alternative to MAPE for assortment-level accuracy when there are many low-volume SKUs and zeros?
3. Вам важно измерять «перекос» прогноза в сторону завышения/занижения. Какой показатель лучше всего подходит?
3. You want to measure systematic over-/under-forecasting. Which metric best fits?
4. После «очистки выбросов» точность резко выросла. Что наиболее вероятно пошло не так?
4. After “outlier cleaning” accuracy jumps sharply. What most likely went wrong?
5. Какой подход чаще всего даёт более устойчивый прогноз при большом количестве SKU с частыми листингами/делистингами?
5. Which approach most often gives a more stable forecast with many SKUs and frequent listings/delistings?
6. Как корректнее всего определить инкремент от промо (uplift) для оценки эффективности промо-спроса?
6. How should you correctly define promo uplift for evaluating promo demand effectiveness?
7. В sell-in данных вы видите всплеск, но sell-out у ритейлера не растёт. Какое объяснение наиболее вероятно?
7. You see a spike in sell-in, but retailer sell-out does not grow. What is the most likely explanation?
8. Для товаров с редким спросом (intermittent demand) и большим количеством нулей какой выбор метода наиболее уместен?
8. For intermittent demand with many zeros, which method choice is most appropriate?
9. Сервис (OTIF/Service Level) падает, хотя общая точность прогноза по KPI выглядит «нормально». Что чаще всего объясняет это противоречие?
9. Service (OTIF/Service Level) drops although forecast accuracy KPI looks “okay”. What most often explains this?
10. Какая мера governance чаще всего реально улучшает качество ручных правок (overrides) и снижает «политический шум»?
10. Which governance measure most often improves manual overrides quality and reduces political noise?
11. Как корректнее всего обработать периоды отсутствия товара (OOS, out-of-stock) в истории при построении baseline?
11. How should you treat out-of-stock (OOS) periods in history when building a baseline?
12. Вы строите причинную модель (causal model). Что является «красным флагом», что модель переобучена или есть утечка данных (data leakage)?
12. You build a causal model. What is a red flag for overfitting or data leakage?
13. Какой метод чаще всего уместен для прогноза запуска нового продукта (NPI) при отсутствии истории продаж?
13. Which method is most appropriate for NPI forecasting with no sales history?
14. Особенность фарм-рынка: какой фактор чаще всего вызывает «ступеньку» в спросе, не объясняемую сезонностью или промо?
14. Pharma market: which factor most often causes a step-change in demand not explained by seasonality or promos?
15. Вы внедряете анализ добавленной ценности прогноза (FVA, Forecast Value Added). Что считается корректной логикой?
15. You implement Forecast Value Added (FVA). What is the correct logic?
Заполните имя и e-mail — мы покажем результат на экране.
Fill in your name and e-mail — we’ll show the result on screen.
Нажимая кнопку, вы соглашаетесь с обработкой персональных данных и политикой конфиденциальности.
By clicking the button, you agree to our Privacy Policy and personal data processing.