Эссе и аннотации

Содержание

Ключевые слова

Автор

Эвристики и когнитивные искажения в корпоративном форсайте

Ключевые слова: cognitive biases, cognitive strategies, creativity, dysfunction, foresight, foresight methods, heuristics, knowledge, strategic decision making, дисфункциональные эффекты, знание, когнитивные искажения, когнитивные стратегии, методы форсайта, стратегические решения, творчество, форсайт, эвристика

Автор: Евгений Громов

Дата публикации: 26.11.2020

Лицензия: © Евгений Громов. Копирование, распространение или иное использование разрешается после согласия правообладателя.

Этот текст парафраз базовой статьи Д. Канемана и А. Тверски “Judgment under Uncertainty: Heuristics and Biases” [1] в контексте корпоративного форсайта.

***

Наблюдение автора: общая причина ошибочных оценок и неверных решений в ситуациях неопределенности (в частности, а размышлениях о будущем) — применение интуиции при суждениях. Это утверждают и Канеман с Тверски в своей фундаментальной работе.

Интуитивное мышление прививается людям (и разрабатывается ими самими на основе наблюдений и мышления) в детстве и, скорее всего, не меняется сильно впоследствии. Однако, с математической точки зрения эта интуиция зачастую не верна (пусть и внутренне последовательна), что и приводит к ошибкам. Вероятно, ситуация такова потому, что в повседневной жизни ребёнок не сталкивается с проблемами статистики, а если и сталкивается, вряд ли получает объяснения. В итоге, уже взрослый человек не приучен мыслить статистически в повседневной жизни, замечать собственные и чужие ошибки мышления, выводить из этого какие-то заключения.

Этим объясняется и то, что даже люди изучающие статистику совершают подобные ошибки (в более сложных случаях со множеством переменных и вероятностей), многие из которых являются нарушениями базовых принципов теории вероятности и статистики. Их знания в этих областях, пусть даже и глубокие, получены позже в жизни, и уже не становятся частью интуиции.

Можно предположить, что если бы человек с детства учился статистике (скорее даже статистическому мышлению), не столько “по учебнику”, сколько более естественно и наглядно (как, например, происходит обучение родному языку), его интуиция была бы совершенно отличной от нашей, и описанных ниже ошибок у него не возникало бы.

Таким образом, любое решение задачи, полученное путём применения эвристики, сводящей решение задачи к интуиции, будет обладать погрешностью, обусловленной расхождением интуиции с математикой.

***

1. Эвристика репрезентативности (Heuristics of Representativeness)

(Событие/объект) А с высокой вероятностью происходит из (процесса/класса) B (принадлежит ему), если А качественно похоже на B (А репрезентативно B), и с низкой, если не похоже. 

То есть, репрезентативность — это прогноз исхода (события) только на основании соответствия (похожести) этого исхода входным данным.  

Примеры: методы, требующие создания выборки из некоторой группы и оценки вероятностей или других значений для всей группы посредством этой выборки (или же подтверждение неких известных для всей группы значений путём нахождения их в выборке).

Когнитивные искажения эвристики репрезентативности в форсайте:

1.1 Нечувствительность к предшествующей вероятности результата

Описание: Игнорирование базовых (предшествующих) вероятностей результатов и входных данных, так как они (базовые вероятности) не влияют на репрезентативность входных данных результату. Игнорирование ранее собранных данных/данных a priori и их влияния на вероятности событий.

Причина: Все факторы, неочевидные и не влияющие на репрезентативность, скорее всего учтены не будут.

Способы борьбы: Учитывать/находить базовые характеристики (в частности, вероятности) входных данных, которые методы форсайта могут не давать, а также a priori и a posteriori вероятности прогнозируемых результатов (без и с учётом предшествующих вероятностей)

Пример в корпоративном форсайте: Когда результаты одного метода форсайта используются как входные данные для другого метода (holistic foresight process) [2].

1.2 Нечувствительность к размеру выборки

Описание: Общие значения для всей популяции (как то: среднее, дисперсия) применяется без изменения и к выборкам любого размера из этой популяции. На самом деле, среднее значение всех событий и вероятность каждого события в выборке (количество событий этого типа по отношению ко всей выборке) тем ближе к соответствующим значениям для всей популяции, чем больше эта выборка. В маленьких выборках разброс между значениями больше (и среднее значение сильно отличается от такового для всей популяции) из-за того, что аномальные показатели (события) не нивелируются в достаточной степени всеми остальными событиями, как это происходит в бóльших выборках. Также, аномальные значения составляют больший процент от всех значений выборки в маленьких выборках.

Причина: То, что аномальные значения нивелируются меньше в меньших выборках забывается/не учитывается, возможно из-за контринтуитивности, или из-за “веры” в правильность и всеобщность некоторых статистических данных (например, от авторитетных источников). Ошибка происходит, когда среднее значение для всей популяции или большей её части изначально известно, то есть, ошибка 1.2 — частный случай ошибки 1.3.

Способы борьбы: Максимально увеличить размер каждой выборки и/или создавать несколько выборок (чем больше, тем лучше), дополнительно анализировать репрезентативность выборок всей (рассматриваемой) популяции, вероятность присутствия аномальных значений. 

Пример в корпоративном форсайте: Перевод фактора сценарного планирования из категории “неопределенный” (U) в категорию “определенный (С) или “риск” (R) на основе слишком малого числа наблюдений в прошлом [3].

1.3 Ошибочные концепции шанса

Описание: Ожидание того, что общая характеристика (например среднее значение, дисперсия) события/процесса такова и для любой его части (то есть, уверенность в том, что каждая часть события так же репрезентативна входных данных, как и всё событие). То есть, вера в “закон малых чисел”. Это искажение — общий случай ошибки 1.2.

Доп. пример: Уверенность в том, что, при подбрасывании монеты, последовательность О-О-О-О-Р-Р менее вероятна чем О-Р-О-Р-О-Р (на самом деле они равновероятны), так как последняя лучше демонстрирует общее распределение орлов и решек (1:1) при бесконечном количестве бросков. 

Причина: Контринтуитивность зависимости характеристики выборки от её размера. Возможно, “привязка” к общим для целой группы (популяции) значениям (среднего, вероятностей, дисперсии), если они известны заранее.

Способы борьбы: Те же, что для 1.2, а также — никак не истолковывать/анализировать данные, полученные из малого числа выборок и/или маленьких выборок, или выборок слабо репрезентативных для всей популяции.

Пример в корпоративном форсайте: См. 1.2.

1.4 Нечувствительность к надежности прогноза

Описание: Прогноз вероятности события, основывающийся на скудных и/или ненадёжных данных, которые при этом “кажутся благоприятными (правдоподобными)” (то есть, данные репрезентативны представлениям о благоприятности/надёжности). Иными словами, игнорирование предсказуемости* оцениваемых событий.

*Предсказуемость (прогнозируемость) — возможность строго (точно) оценить вероятности неких событий основываясь на данных, описывающих (определяющих) эти события. Если данные скудны и/или ненадёжны, прогнозы вероятностей должны быть примерно равными для каждого из событий. 

Дополнительные примеры: 

1) Прогноз положения преподавателя в будущем на основании качества одного его занятия в настоящем/прошлом. Даже если это занятие не является особенно качественным, невозможно с высокой точностью оценить положение преподавателя (особенно в далёком будущем), однако из-за данной ошибки мышления оценка качества занятия переносится и на оценку успеха учителя.

2) Прогноз успешности компании лишь на основе её позитивного описания, даже если данные конкретно о её прибыли и других объективных характеристиках отсутствуют (малая/нулевая предсказуемость).  

Причина: Скудность и ненадёжность данных не всегда очевидна и не влияет на их репрезентативность, следовательно игнорируется (возможно). 

Способы борьбы: Не оценивать будущие значения некоего параметра, если данные о его нынешнем и прошлом состоянии скудны и/или ненадёжны (малая предсказуемость параметра). Особенно не оценивать неизвестный (малоизвестный) параметр на общей благовидности/правдоподобности/благоприятности других параметров, с ним напрямую не связанных. 

Пример в корпоративном форсайте: Критерий “правдоподобия” (plausibility) при оценке сценариев (возможных будущих) [4].

1.5 Иллюзия валидности

Описание: Уверенность в прогнозе при (удачном) совпадении предсказанного исхода (результата) и входных данных (удачная репрезентативность). Наблюдается при внутренней согласованности (похожести друг на друга) данных, что на деле лишь снижает точность прогноза — если есть несколько в равной степени “валидных”, но различных (не взаимосвязанных) входных данных, прогноз, на них основанный, будет точнее, чем если валидных данных много, но все они одинаковы/подобны.

Доп. пример: Большая уверенность при прогнозе средней оценки успеваемости студента (за всё обучение) если его табель за первый год состоит только из четвёрок, чем если он состоит из троек и пятёрок (в примерно равной степени). Оба прогноза, на деле, должны быть одинаковыми (4 в среднем) и иметь одинаковую вероятность, но в первом случае “удачным” образом входные данные согласованы и репрезентативны (подобны) предсказанному среднему значению. Пример невалидных данных — шестёрки или больше в табели успеваемости.

Причина: Если входные данные репрезентативны исхода события (например среднее значение многих одинаковых чисел — это же число), уверенность в прогнозе этого события будет выше, чем если бы входные данные сильно разнились между собой и не были напрямую репрезентативную исходу. Иными словами, предпочтение самой непосредственной репрезентативности.

Способы борьбы: При наличии входных данных, взаимосвязанных или нет, оценивать их валидность, а не подобие друг другу, делать прогнозы исходя только из валидных данных.

Пример в корпоративном форсайте: При прогнозировании трендов по методу анализа литературы возможна большая уверенность в прогнозе, если все источники утверждают схожее (и напрямую репрезентативные прогнозу), чем если источники утверждают различное, но не взаимопротиворечивое (т.е. одинаково валидное).

1.6 Неправильные представления о регрессии

Описание: Случайные отклонения от среднего значения (после которых значения снова возвращаются к среднему), произошедшие вслед за некоторым событием (но не вследствии него!), истолковываются как напрямую зависящие от этого события.

Причина: Попытка обосновать внезапное отклонение от среднего значения при непонимании/незнании принципа регрессии. Также от того, что нет возможности наблюдать за колебаниями среднего значения достаточно долго, чтобы заключить, что это действительно лишь колебания, а не намечающийся тренд.

Способы борьбы: Знать среднее значение наблюдаемой переменной, наблюдать за изменениями её значения достаточно долгое время. Если второе не представляется возможным (и даже если представляется), хотя бы проводить некий опыт, с целью установить, действительно ли существует причинно-следственная связь между действием и кажущимся его результатом, или же нет.

Примеры в корпоративном форсайте: 

1) Неучитывание регресса к среднему при анализе, экстраполяции трендов и слабых сигналов. 

2) Иллюзорная причинность (истолкование случайного отклонения от среднего в прошлом как результат некоего действия) при:

2a) применении метода Via positiva. Неверная экстраполяция прошлого в будущее (настоящее).

2b) применение принципа Via negativa. Неверная экстраполяция настоящего в будущее («мы выиграем в будущих катастрофах, избегая действовать так-то и так-то», если действительной взаимосвязи действий с последствиями (отклонениями от среднего) нет).

2. Эвристика доступности (Heuristics of Availability)

Вероятность событий, которые лучше вспоминаются, кажется большей чем вероятность тех, что вспоминаются хуже. В свою очередь, события/процессы/объекты вспоминаются тем лучше, чем больше группа, к которой они принадлежат, и наоборот (также влияет на запоминаемость “яркость” события, зачастую субъективная).

Примеры: задачи Ферми, Wild cards, прогноз гения, нечёткие когнитивные карты. В общем, любые методы, основанные скорее на воображении и опыте, нежели на данных, а также данные, полученные от участников опросов, гражданских панелей, интервью.

Когнитивные искажения эвристики доступности в форсайте:

2.1 Искажения, обусловленные степенью восстанавливаемости событий в памяти

Описание: Размеры классов одинакового размера кажутся разными, если восстанавливаемость классов в памяти не одинакова для них всех. Иначе говоря, прогноз вероятности одного события из нескольких будет тем больше, чем лучше в памяти всплывают случаи подобного события из прошлого (даже если вероятности всех оцениваемых событий в действительности одинаковы).

Причина: Если примеры события (класса) из прошлого хуже вспоминаются, делается ложное заключение о том, что это событие в действительности редко происходило (“чего я не помню, того не было”), следовательно его вероятность мала, и наоборот (“что я хорошо помню, то точно происходило часто”, хотя событие может быть даже однократным, но очень ярким).

Способы борьбы: Не полагаться на память при прогнозировании/оценке, только на данные и строгие методы их анализа/толкования.

Пример в корпоративном форсайте: Дисфункция гиперкреативности в сценарном планировании, по которой неопытные участники форсайта, для которых он является когнитивным вызовом, могут стремиться формулировать идеи, основываясь на их яркости в собственном опыте [5].

2.2 Искажения, основанные на эффективности направления поиска

Описание: События/тренды, для которых проще найти примеры (доступность контекстов, в которых они проявляются, больше), оцениваются как более вероятные/более большие.

Причина: Можно сказать, что разум по природе своей ленив при решении задач, и будет отдавать предпочтение тем решениям, что проще достигаются (требуют использования меньшей энергии).

Способы борьбы: Использовать компьютер для поиска примеров/контекстов и оценки масштаба событий/трендов (?)

Пример: Если по некоторой теме проще найти патенты и литературу, так как она больше развита/популярна или более доступна, вероятность основать прогнозы на этой теме будет выше, даже если она в действительности не играет такую значимую роль в разворачивающихся трендах, как более узкие и менее доступные темы.

2.3 Искажения, обусловленные способностью к представлению образов

Описание: При оценке масштаба событий/трендов (вероятности), элементы которых в памяти не хранятся, а создаются согласно некоторым правилам, те события/тренды, создавать элементы которых проще, будут оцениваться как более масштабные (вероятные).

Причина: Та же причина, что и 2.2.

Способы борьбы: Использовать компьютер (?)

Пример в корпоративном форсайте: Недоверие к методу грубых вычислений Ферми в ситуациях отсутствия доступной информации иногда приводит к предпочтению вариантов, подкреплённых убедительными для исследователя и легкодоступными “объективными” данными.

2.4 Иллюзорная взаимосвязь (корреляция)

Описание: При оценки вероятности (частоты) того, что несколько событий произойдут одновременно (т.е. существует корреляция), события, ассоциация между которыми сильна, будут оценены как часто происходящие одновременно (и наоборот), даже если в действительности корреляции между ними нет или же она отрицательна.

Дополнительный пример: Кажущаяся корреляция между манией преследования и формой глаз на рисунках, нарисованных людьми, страдающими этой манией, из-за ассоциации мании преследования с глазами.  

Причина: ???

Способы борьбы: Чисто математически считать случаи, когда несколько признаков с сильной ассоциацией действительно коррелируют (если такие случаи вообще будут), если корреляция между ними фактически отсутствует или негативна. Когда же события могут с некоторой частотой появляться вместе (по случайности), проводить какие-либо опыты для подтверждения или опровержения корреляции (?)

Пример в корпоративном форсайте: При составлении timeline сценариев временнАя взаимосвязь между трендами и событиями может основываться на ассоциативном стереотипе, а не на реальной корреляции.

3. Эвристика корректировки и привязки (эффект якоря) (Heuristics of Adjustment and Anchoring)

Результат решения/оценки некоторой задачи на основе данных часто будет зависеть от того, в каком порядке эти данные предоставлены и как сформулирована задача, особенно если время на решение/оценку задачи ограниченно. Иными словами, начальная (отправная) точка влияет на конечную оценку, которая отклоняется к значению этой начальной точки.

Примеры: методы, требующие оценки нескольких вероятностей (или других параметров) для группы событий/классов, при наличии некоторого значения как начальной точки.

Когнитивные искажения эвристики корректировки и привязки в форсайте:

3.1 Искажения в оценке конъюнктивных и дизъюнктивных событий

Описание: Вероятность конъюнктивных событий переоценивается, вероятность дизъюнктивных событий недооценивается. Проще говоря, вероятность того, что из некоего количества событий (даже с большими вероятностями) все произойдут — переоценивается, а вероятность того, что не произойдет даже одно из них — недооценивается. 

Причина: Разум “привязывается” к базовым вероятностям того, произойдёт событие или нет (например 90% и 10%), и итоговая оценка и для конъюнкции и дизъюнкции нескольких таких событий делается на основе этих вероятностей (следовательно, больше для конъюнкции, меньше для дизъюнкции), при том что на деле вероятности конъюнкции и дизъюнкции значительно отличаются от базовых (и при большом количестве событий первая вероятность скорее будет меньше второй). Неправильная оценка тем вероятнее, чем больше разных событий с разными вероятностями оцениваются.

Способы борьбы: Считать вероятности на компьютере, если возможно. Помнить, что интуитивная оценка вероятности того, что все события произойдут, будет завышена, а того, что не произойдёт ни одно — занижена, и поправлять свои оценки соответственно.

Пример в корпоративном форсайте: См. пример из 1.2.

3.2 “Привязка” при оценке распределения субъективной вероятности

Описание: При оценке размера класса (вероятности события), некое значение (или естественным образом находящееся в разуме, или данное в описании задачи) служит “якорем” (привязкой) для определения нижних и верхних пределов возможного размера класса.

Дополнительный пример: Если попросить испытуемого оценить, с какой вероятностью значение некоей случайной переменной больше или меньше данного ему числа, произойдёт привязка к этому числу, и верхние и нижние пределы вероятностей будут рассчитаны относительно этого числа. Также, испытуемый может привязаться к лучшей оценке (своей или чужой) среднего значение переменной, или же к естественной оценке равной вероятности (50 на 50).

Причина: Возможно, разуму трудно начать решать (непростую) задачу, если нет некоей начальной точки, от которой можно оттолкнуться (опять же, разум облегчает себе работу).

Способы борьбы: Ставить себе и другим одну и ту же задачу многократно, каждый раз с разными формулировками и разными отправными точками. Найти среднее значение всех решений (??) или установить, отчего возникает привязка и попытаться устранить её.

Пример в корпоративном форсайте: См. пример из 1.2.

Библиотека когнитивных искажений в форсайте

По методам форсайта (классификация из [5]):

Анализ литературы — 1.2, 1.5, 2.2

Гражданские панели — 1.2, 1.5, 2.2, со стороны граждан: все/большинство

Деревья решений/Логические диаграммы — 1.1, 1.6, 2.4

Интервью — 1.2, со стороны интервьюирования: все/большинство (особенно 2 и 3)

Конференции/семинары — n/a (Р. Поппер считает эти активности методом форсайта, что сомнительно)

Мозговые штурмы — большинство/все

Морфологический анализ — 3.1 (возможно 2.3)

Научная фантастика — n/a

Непредсказуемое (Wild cards) — все из 2 (возможно 1.4)

Опросы — 1.2, 1.5, 2.2, со стороны опрашиваемых: все/большинство

Прогноз гения — 1.4, все из 2 (возможно 3.1, 3.2)

Ретрополяция — 1.1, 1.4, 1.6, 2.2, 2.3, 2.4, 3.1 (возможно 3.2)

Ролевая игра — большинство (исключая, возможно, 1.2, 1.6)

Семинары по конструированию будущего — 1.4, 2.2, 2.3, 2.4, 3.1 (возможно 3.2)

Симуляции — 1.2, 2.4 (возможно 1.4, 1.5)

Сканирование/Слабые сигналы — 1.2, 1.3, 1.6 (возможно 1.4, 1.5, 3.1)

Сценарии — 1.4, 1.6, 2.2, 2.4, 3.1 (возможно 3.2)

Экспертные панели — 1.2, 1.5, 3.2 (возможно 1.6, 2.2)

Эссе — 1.4, 1.6, 2.2, 2.4, 3.1, 3.2 (возможно 1.5)

SWOT-анализ — 1.4, 2.2, 2.3, 2.4 (возможно 3.1)

Анализ патентов — 1.2, 1.5, 2.2

Бенчмаркинг — 1.1, 1.2, 2.2 (возможно 3.2)

Библиометрика — 1.2, 2.2

Индикаторы/Временные ряды — 1.2, 1.3, 1.5, 1.6 (возможно 3.2)

Моделирование — 1.5 (возможно 1.4)

Экстраполяция трендов/Мегатренды — 1.2, 1.3, 1.6

Анализ перекрестных связей — 1.5, 2.4 (возможно 3.1, 3.2)

Нечеткие когнитивные карты — 1.1, 1.2, 1.3, 1.4, 1.5, 2.3, 2.4, 3.1 (возможно 2.1, 2.2, 3.2)

Анализ стейкхолдеров — 1.2, 1.5, 2.2 (возможно)

Голосование — большинство/все

Дельфи — 1.2, 3.2

Технологические дорожные карты — 1.1, 1.2, 1.3, 1.5, 1.6, 2.4

Критические технологии — 1.6, 2.2

Многокритериальный анализ — 1.1, 1.4, 1.5, 2.2, 2.3, 2.4 

Задачи Ферми — 1.1, 1.2, 1.3, все из 2, 3.1, 3.2, частично 1.4 (предсказуемость событий)

По содержанию этапов форсайта:

Ошибки при составлении и анализе выборок — 1.2, 1.3, 2.2, 3.2

Ошибки при анализе причинно-следственных связей — 1.1, 1.3, 1.6, 2.4

Ошибки при оценке на основании опыта/экспертизы/памяти (без конкретных данных) — все из 2 (возможно 1.3, 1.6)

Ошибки при экстраполяции — 1.2, 1.3, 1.6

Ошибки при оценке вероятностей — 1.1, 1.3, 1.4, 1.5, 2.4, 3.1, 3.2 (частично 1.2, 1.6)

[1] Judgment under Uncertainty: Heuristics and Biases. Amos Tversky and Daniel Kahneman. Science 185 (4157), 1124-1131. 1974. DOI:10.1126/science.185.4157.1124

[2] Durst, Carolin, et al. "A holistic approach to strategic foresight: A foresight support system for the German Federal Armed Forces." Technological Forecasting and Social Change 97 (2015): 91-104.

[3] https://veraviastrategy.com/certainty-risk-uncertainty

[4] https://veraviastrategy.com/plausibility-and-counterintuitivity

[5] https://veraviastrategy.com/too-much-of-creativity

[6] Rafael Popper, (2008),"How are foresight methods selected?", foresight, Vol. 10 Iss 6 pp. 62 – 89. http://dx.doi.org/10.1108/14636680810918586

 

Сохранить в PDF

Скопировать постоянный линк

Теоретики-инноваторы

Ключевые слова: cognitive strategies, creativity, heuristics, innovations, knowledge, uncertainty, VUCA, знание, инновации, когнитивные стратегии, неопределенность, творчество, эвристика

Автор: Федор Рагин

Дата публикации: 07.11.2020

Лицензия: © Федор Рагин. Копирование, распространение или иное использование разрешается после согласия правообладателя.

В архиве Курчатова хранятся методические рекомендации сотрудникам – учёным-ядерщикам – о том, как оформлять доклады на научно-технические темы для чиновников и партийных деятелей. Investor pitch deck, опередивший время: чёткая структура, ясная идея, простые слова, понятные аргументы, красивые диаграммы, запоминающиеся метафоры, тщательный хронометраж.
 
***
 
В условиях неопределенности лучшая стратегия – как у Берии при создании атомной бомбы: одновременно разрабатывать все возможные альтернативы. Проблема в том, что это ужасно затратно, и главные издержки связаны не с тем, что делать, а с тем, как делать, то есть, с технологиями. В советском атомном проекте на удешевление и ускорение (сделали за 4 года) сработали не столько шпионы и подвернувшиеся в германских трофеях 100 тонн урана, сколько теоретики-учёные, «на лету» придумывавшие новые технологии и обсчитывавшие их на логарифмической линейке и меловой доске [1].
 
В бизнесе, естественно, всё так же: у компании нет других вариантов справиться с неопределенностью внешнего окружения, кроме как через разнонаправленные инновации со сверхдозой эвристики для их удешевления и ускорения. Отсюда в последнюю пятилетку такая волна обучения корпоративному креативу – VUCA стимулирует панический спрос.
 
И хитрец, и дурак учат креативности, как скиллсету, который доступен каждому и которым каждый может воспользоваться ради той самой эвристической экономии ресурсов. Но не в коня корм, увы. Венчурных денег всё больше, а идей столько же. Более бесплодную стратегию подготовки кадров для создания атомной бомбы, чем натаскивание практиков на творчество, трудно представить. Покупать чохом стартапы на бирже гораздо плодотворнее.
 
Для того, чтобы крутились инновации, компании нужны не пятьдесят «креативных практиков» после краткосрочных курсов с дизайн-мышлением и ТРИЗ наперевес, а один фундаментально образованный теоретик, способный в воздухе рисовать сценарии развития экосистемы, там же строить под них альтернативные бизнес-модели, раскладывать на пилотные проекты в ассортименте, рынках и внутренних процессах, а потом садиться за excel и считать экономику всего этого, не пользуясь ничем, кроме грубых вычислений Ферми.

[1] "Курс 83. Как атом изменил нашу жизнь. Часть 2. История советской атомной бомбы." Арзамас, 2020 https://arzamas.academy/courses/83/2

 

 

Сохранить в PDF

Скопировать постоянный линк

Инновации как катастрофы

Ключевые слова: antifragility, entrepreneurship, experimental products, innovation machine, innovations, negative thinking, positive thinking, strategic management, strategic planning, via negativa, via positiva, VUCA, антихрупкость, инновации, машина инноваций, негативное мышление, позитивное мышление, предпринимательство, стратегическое планирование, стратегическое управление, экспериментальные продукты

Автор: Федор Рагин

Дата публикации: 29.10.2020

Лицензия: © Федор Рагин. Копирование, распространение или иное использование разрешается после согласия правообладателя.

У всякой инновационной затеи (знакомый пассионарий называет их «проектами «А давайте!») есть предельно допустимая для её стейкхолдеров катастрофичность. Например, миллион рублей безответных инвестиций, после которых нервы не выдерживают, и дело сворачивается. Или сто миллионов. Или тысяча безрезультатных человеко-часов рабочей группы и репутационные потери (те же деньги – ФОТ плюс упущенные возможности). Цена катастроф по всем вместе взятым экспериментам компании, сумма её провалов, предпринимательский Перл Харбор – это, очевидно, бюджет и, по нашему убеждению, единственно верный источник kpi инновационных проектов. Управлять нужно только этим портфелем катастроф: концентрация на негативной стороне стратегического поиска освобождает компанию от бремени позитивных целей в менеджменте инноваций – демотивирующих и по определению бессмысленных во всё возрастающей неопределенности внешней среды.
 
Но такую «венчурную» философию трудно принять менеджерам и собственникам, которые привыкли мыслить и управлять позитивно, то есть, в терминах целевых приобретений (клиентов, маржи и т.п.), а не априори признанных потерь. Они распространяют позитивное мышление и его инструментарий на всю стратегию компании, не отделяя в ней ту часть, которая является экстраполяцией прошлого (где позитивные kpi верны), от предпринимательского зондирования будущего (где позитивные kpi вредоносны). Результат такого смешения – плановые инновации, что и оксюморон, и стратегическая угроза для существования бизнеса.
 
Ни у кого больше нет линейно развивающегося внешнего окружения и избыточной маржи, чтобы оплачивать уютные привычки, приобретенные в нулевые и десятые, когда кризисы были просто коррекциями.

Панархия в кризисе

Ключевые слова: antifragility, black swan, cognitive biases, innovations, k-waves, kondratieff waves, macro factors, panarchy, path-dependence, PEST, systems, uncertainty, антихрупкость, волны кондратьева, инновации, когнитивные искажения, макро-факторы, неопределенность, панархия, системы, циклы кондратьева, черный лебедь

Автор: Федор Рагин

Дата публикации: 04.10.2020

Лицензия: © Федор Рагин. Копирование, распространение или иное использование разрешается после согласия правообладателя.

Мой бывший академический руководитель Алдас Крячунас из Purdue's Krannert School написал в 2006 году статью, в которой утверждал, что на адаптацию компаний Литвы к рыночной экономике после получения страной независимости существенно влияла их история и, в частности, их капитальные активы – здания и сооружения. Если они были построены в советский период, то компании испытывали много операционных проблем в новых рыночных обстоятельствах. И наоборот – старые, «досоветские» предприятия с рыночным менталитетом создателей, «впечатанным» (imprinted) в планировки офисов и цехов, заметно лучше адаптировались к рынку [A].

Компания – сложная система. Её будущее зависит не от того, какова она сейчас, а от того, какой она была в прошлом. Её история определяет эвристику её руководителей и работников, в том числе способы выживания и извлечения выгод из неприятностей. В физике это свойство системы называется гистерезис, а в менеджменте – зависимость от предшествующего развития (path-dependence) [B].

Как отреагирует компания на удар судьбы – будь то крах национальной валюты, разрыв связей с поставщиками, торпеда в борт от разрушающей технологии, война и бомбоубежища, ковид-чума или маски-шоу – в большой степени написано в её истории. Говорю это к тому, что все усилия по срочному насаждению антихрупкости в компании в преддверии «трясущихся 20-х» могут оказаться напрасными, потому что её ответ на атаку будет не «инновационным», а «архаичным». Правда, сказать с уверенностью наперёд мы ничего не можем, считает наука [C].

Значит, не стоит и пытаться? На мой взгляд, стоит. В арсенале антихрупких стратегий стратегия “do nothing” присутствует, но только для случаев, когда овчинка не стоит выделки. Если же ты хочешь выстоять и приобрести там, где другие падают и теряют, нужно добиваться антихрупкости. Хотя бы для того, чтобы твой бизнес «вспомнил» её в следующей фазе панархии. (Что это за птица и зачем – в эссе ниже).

***

Бельгийский ботаник и экономист XIX века Поль Эмиль де Пюидт (Paul Émile de Puydt), рассуждая о гипотетической системе государственного правления, «вбирающей в себя все системы», использовал поэтический термин «панархия» (panarchy) [1]. В 2001 году экологи Гундерсон и Холлинг (Gunderson, Holling) обозначили им сумму сложных систем, находящихся во взаимной циклической адаптации [2].

Компания и её макросреда, представленная технологиями, экономикой, социумом и политикой – системы, адаптирующиеся друг к другу. То есть, это панархия, а сорокалетние волны Кондратьева – развёртка этой панархии вдоль оси времени и портрет происходящих в ней процессов: медленных фаз роста и эксплуатации, быстрых фаз распада и реорганизации [3].

Компания – неотъемлемая часть кондратьевской панархии. Её индивидуальная фаза роста и накопления (масштабирование и эффективная операционная деятельность) сменяется фазой разрушения и реорганизации (инновациями и становлением новой качественной базы для экспансии). Одновременно, компания подвержена воздействиям извне, ввергающим её в перестройку и обновление независимо от внутренних циклов. Эти внешние воздействия – регулярные циклические кризисы панархии и непредсказуемые, но постоянно происходящие катастрофы: «вечный дождь неопределённостей» (см. рисунок).

Повышенное внимание к фазе роста и пренебрежние фазой распада и изменений [4] – классическая иллюстрация рутинных когнитивных искажений управленцев, в первую очередь, hindsight bias, «ползучего детерминизма» [5]. В то же время, источник антихрупкости компании, то есть, её способности выстоять и выиграть в кризисе или катастрофических событиях, заключается как раз в концентрации на второй фазе: нужно готовиться к её наступлению, разумно действовать в ней, извлекать из неё выгоды и уроки.

Кондратьевские волны имеют хорошо выраженный календарь. В 2020 году мы вошли в десятилетнюю фазу реорганизации панархии: господствовавший тридцать лет уклад информационных и коммуникационных технологий (ICT) сменяется укладом, основанном на технологиях «дополненного человека» (MANBRIC) [3]. Впереди – «трясущиеся 20-е», выводящие антихрупкость в безусловный стратегический приоритет практически любого бизнеса. Но определённость, даже по поводу предстоящих бед, – всё-таки хорошая новость: мы знаем, что нас ждут скверные годы, и мы готовимся к ним [6].

«Дождь неопределённостей», усугубляющий собственную кризисную повестку второй фазы кондратьевской панархии, – это «чёрные лебеди» Талеба, острые прикосновения хаоса. Их почти невозможно распознать заранее. При этом их угроза очевидно суммируется с угрозами предстоящего нам десятилетия смены технологических укладов.

С такой перспективы логика развития корпоративной культуры (консенсус о прошлом и плюрализм о будущем), разнонаправленность и высокий темп инноваций, цели и содержание цифровой трансформации (все эти микросервисы и DevOps) [7] внезапно становятся очень понятными: нам прямо сейчас необходима антихрупкая компания, способная работать и приобретать тогда, когда наступает время гибнуть и терять [8]. Другими словами, только антихрупкость позволяет бизнесу пройти свою системную фазу роста и накопления во время фазы распада и реорганизации макросреды.

[1] P. E. de Puydt, Panarchy, first published in French in the Revue Trimestrielle, Bruxelles, July 1860. https://www.panarchy.org/depuydt/1860.eng.html.

[2] Gunderson, L., Holling, C. S., Panarchy: Understanding Transformations in Systems of Humans and Nature, Island Press, p.21, 2001. https://doi.org/10.1016/S0006-3207(03)00041-7.

[3] https://veraviastrategy.com/lyric-notes-on-strategic-foresight-framework.

[4] Chikumbo, O., Norris, S.L.C, 2015. Futuristic smart architecture for a rapid disaster response. In: Masys, A.J. (Ed.), Disaster Management: Enabling Resilience. Springer, Cham, pp. 39–64. https://doi.org/10.1007/978-3-319-08819-8_3.

[5] https://en.wikipedia.org/wiki/Hindsight_bias.

[6] https://veraviastrategy.com/dual-purpose-future.

[7] Ramezani, Javaneh & Camarinha-Matos, Luis M., 2020. "Approaches for resilience and antifragility in collaborative business ecosystems," Technological Forecasting and Social Change, Elsevier, vol. 151(C). https://doi.org/10.1016/j.techfore.2019.119846.

[8] https://veraviastrategy.com/antifragile-rules-and-boards-of-directors.

[A] Kriauciunas, Aldas & Kale, Prashant. (2006). The impact of socialist imprinting and search on resource change: A study of firms in Lithuania. Strategic Management Journal. 27. 659 - 679. 10.1002/smj.537. https://doi.org/10.1002/smj.537.

[B] Dahlberg, R., 2015. Resilience and complexity: conjoining the discourses of two contested concepts. J. Curr. Cult. Res 7, 541–557. https://doi.org/10.3384/cu.2000.1525.1573.

[C] Devendorf, E., Zeliff, K., Jabbour, K., 2017. Characterization of antifragility in cyber systems using a susceptibility metric. In: Proceedings of the Computers and Information in Engineering Conference, pp. 1–11. https://doi.org/10.1115/DETC2016-60230.

 

Сохранить в PDF

Скопировать постоянный линк

Эрзац-опыт, приобретённый в будущем

Ключевые слова: cognitive biases, cognitive strategies, foresight, foresight culture, foresight methods, heuristics, innovations, organizational learning, pluralism, scenario planning, scenarios, strategic decision making, инновации, когнитивные искажения, когнитивные стратегии, организационное обучение, плюрализм, стратегические решения, сценарии, сценарное планирование, форсайт, эвристика

Автор: Федор Рагин

Дата публикации: 01.10.2020

Лицензия: © Федор Рагин. Копирование, распространение или иное использование разрешается после согласия правообладателя.

Мозг использует практически идентичные механизмы для воспоминаний о прошлом и для представления будущего [1]. Люди, лишившиеся памяти из-за повреждения гиппокампа, не могли описать возможные варианты будущего [2]. Дети начинают воображать будущее только после того, как у них формируется способность вспоминать прошлый опыт [3].

Мы можем учиться, представляя будущее, так же, как учимся, извлекая аналогии из прошлого. Диалог о будущем компании в формате плюрализма и состязания альтернативных сценариев ценен в такой же степени, как диалог о прошлом, обобщающий опыт и вырабатывающий лучшие практики [4]. Герман Кан (Herman Kahn) называл процесс обучения через конструирование будущего формированием «эрзац-опыта» (ersatz experience) [5].

(Герман Кан – крупная фигура, американский «оборонный интеллектуал» времён холодной войны. Он первый заявил, что исторический масштаб и беспрецедентность феномена атомного оружия требует основывать стратегию государства на воображаемом будущем [6].

Кстати, сценарное планирование перекочевало из военной сферы в бизнес благодаря Кану (для меня – интересная новость). В начале 1970-х Кан убедил Пьера Уэка (Pierre Wack), главу департамента планирования Royal Dutch Shell, использовать сценарии для оценки фундаментальных перемен в арабском мире, что в итоге обеспечило Shell выживание в нефтяном кризисе 1973 года [7].)

Компаниям нужны конкурирующие сценарии будущего, чтобы на них учиться, приобретать «эрзац-опыт» и нацеливать своё предпринимательство и инновации, таким образом формируя стратегию [8].

При этом, два или три сценария лучше, чем восемь или пятнадцать. Про когнитивные искажения в форсайте я писал много раз, но вот ещё одна любопытная их иллюстрация: испытуемый, которого просили сформулировать одну альтернативу «главному» способу достижения цели, легко справлялся с задачей, а итоговый результат оказывался более качественным за счет снижения чрезмерной самоуверенности (overconfidence bias); если же ему предлагали сочинить восемь альтернатив, они оказывались надуманными, а результат тяготел к «главному» способу достижения цели – фантастичность вариантов только «подстёгивала» когнитивное искажение [9]. Сценарии не должны быть безумны (crazy), добавляет The Economist, конструируя будущее, нам следует оставаться в границах реальности [10].

Фантастикой отдаёт и сам призыв учиться у будущего, но, если присмотреться к тому, как мы мыслим и принимаем решения, он вполне обоснован и прагматичен.

[1] Schacter, D. L., Addis, D. R., Hassabis, D., Martin, V. C., Spreng, R. N., & Szpunar, K. K. 2012. The future of memory: Remembering, imagining, and the brain. Neuron, 76(4): 677–694.

[2] Hassabis, D., Kumaran, D., Vann, S. D., & Maguire, E. A. 2007. Patients with hippocampal amnesia cannot imagine new experiences. Proceedings of the National Academy of Sciences of the United States of America, 104(5): 1726–1731.

[3] Busby, J., & Suddendorf, T. 2005. Recalling yesterday and predicting tomorrow. Cognitive Development, 20(3): 362–372.

[4] https://veraviastrategy.com/dialogues-of-future-and-past

[4] Kahn, H. 1965. On escalation: Metaphors and scenarios. New York: Praeger.

[5] Kahn, H. 1960. On thermonuclear war. Princeton, NJ: Princeton University Press.

[6] Kleiner, A. 2008. The age of heretics: A history of the radical thinkers who reinvented corporate management (2nd ed.). San Francisco: Jossey-Bass.

[7] Scoblic, J. P. 2020. Strategic Foresight as Dynamic Capability: A New Lens on Knightian Uncertainty. Harvard Business School.

[8] Sanna, L. J., Schwarz, N., & Stocker, S. L. 2002. When debiasing backfires: Accessible content and accessibility experiences in debiasing hindsight. Journal of Experimental Psychology. Learning, Memory, and Cognition, 28(3): 497–502.

[9] The Economist. 2019. Why it’s worth reading crazy-sounding scenarios about the future. July 6: http://www.economist.com/leaders/2019/07/06/why-its-worth-reading-crazy-sounding-scenariosabout-the-future.

 

Иллюстрация: “Herman Kahn”, David Levine: https://shop.nybooks.com/collections/david-levine

 

Сохранить в PDF

Скопировать постоянный линк