?

Log in

No account? Create an account
answer_42
shit happens 
12th-Nov-2010 09:35 pm
Нашел статью Е. Юдковского. "Ошибки, влияющие на оценку рисков" (на русском). Как мы помним из замечательных Babyeaters, Элизер озабочен проблемой уничтожения мира. В этой статье он более подробно останавливается на вопросе почему мы недооцениваем подобные риски.

«Черные лебеди» являются особенно серьезным аспектом проблемы мощных последствий: иногда большая часть вариативности процесса происходит из исключительно редких, но исключительно масштабных событий. Представьте себе финансовый инструмент, который зарабатывает $10 с 98% вероятностью, но теряет $1000 с 2% вероятностью. В конечном счете, расход перевешивает доход, но инструмент выглядит как устойчиво выигрышный. Тэйлеб (2001) приводит пример трейдера, чья стратегия работала 6 лет без единого убыточного квартала, принося около $80 миллионов — и затем он потерял $300 миллионов в одной катастрофе.

Другим примером является Long-Term Capital Management, инвестиционный фонд, в состав основателей которого входили два Нобелевских лауреата по экономике. В течение Азиатского кризиса и российского дефолта 1998 года рынки вели себя совершенно беспрецедентным образом, имевшим пренебрежимо малую вероятность по исторической модели, использованной LTCM. В результате LTCM начал терять по $100 миллионов в день, день за днем. За один день в 1998 году он потерял более $500 миллионов [Taleb, 2005]

И девушка Маша (Линда) в этой статье присутствует, и очень многое другое.
Comments 
13th-Nov-2010 08:10 am (UTC)
Anonymous
Больше спасибо, очень интересная статья. // Mavka
13th-Nov-2010 08:24 am (UTC)
Anonymous
Бесподобно: "умозаключение по типичности является встроенной характеристикой мозга, предназначенной, чтобы давать быстрые достоверные суждения"! // Mavka
13th-Nov-2010 08:40 am (UTC)
Anonymous
Ошибки в ситуациях с логическим «И»

Эта особенность мышления проявляется при обучении программированию. У студентов очень часто возникают сложности с различием AND и OR. Вплоть до того, что один знакомый преподаватель запретил первокурсникам вообще использовать составные логические условия и посвятил проблеме отдельный курс.
13th-Nov-2010 10:01 am (UTC)
ОМГ, уже дожили до того, что люди не различают AND и OR. Куда катится мир...
13th-Nov-2010 10:47 am (UTC)
Anonymous
"Важно отметить, что успешная атака сильного ИИ будет, вероятно, развиваться скрытно до того момента, пока она не станет необратимой. Теоретически, ИИ мог бы скрывать своё господство и после завершения атаки. Иначе говоря, возможно, что он уже есть."

Шапочку шить уже поздно?.. // Mavka
13th-Nov-2010 05:56 pm (UTC)
По моему эпично. Юдковский специализируется на ИИ.
This page was loaded Jul 16th 2019, 2:03 am GMT.