Любопытный блог :-)
http://multicriterion.tripod.com/fun.htm
==========
Fractal
Просто и сермяжно о науке для математиков
Всем привет!
Разумеется, ни один нормальный человек не может интересоватся всем одновременно и сразу. Мои нынешние интересы могут показаться разбрасыванием, но на самом деле они растут как ноги и уши от одного зубного корня – опыта работы с нейросетями для аппроксимации многомерных сложных зависимостей. Как известно, идеальных решений в этой области не бывает, но когда надо решать какую-то конкретную задачу и время торопит, волей неволей забираешься в дебри теории, ищешь обходные пути и варианты и наталкиваешься на странные параллели от которых дух захватывает. Ну, думал ли я когда-нибудь, что задумаюсь о судьбах динозавров и жизни на краю хаоса?
В этой жизни всё очень плотно связано. Достаточно просто чем-то прикладным заняться и быстро начинаешь видеть, что круг методов по сути один и тот же. Ну вот, к примеру, приходилось заниматься распознаванием образов, оптимизацией и прогнозированием. Использовал разные методы и общепринятые и собственные. Сейчас поумнел и вижу, что для этих таких разнородных задач методы решения схожи – они идут из жизни. Ведь каждый день мы сталкиваемся с распознаванием ситуаций, попытками оптимальным образом распорядиться в распознанной ситуации, да еще предвидеть близкие и отдаленные последствия. Постоянное принятие решений в условиях неопределенности и риска создало человека, да и вообще живое как совершенные математические машины. Глядя в далекое прошлое на находки, которые методом бесконечных проб и ошибок нашла жизнь, можно увидеть очертания грядущих знаний.
Ну вот как вам к примеру идея о том, что жизнь преимущественно цветет на краю хаоса, в условиях нестабильности и лишений. И имеет очень реальные шансы загнуться при наступлении спокойствия и благополучия. Такое уже было не раз – 3, 65, 250, 370 млн лет назад. Похоже, что динозавры вымерли не напрямую от отравления иридием или огромной волны в результате падения 65 млн. лет назад на Юкатане огромного метеорита. Это произошло еще через сотни тысяч лет, когда всё казалось бы должно было успокоиться. Есть в этом какая-то загадка. Которая запросто может оказаться имеет отношение к нам современным. Ведь мы ратуем за равенство,за стабильность, предсказуемость, за то, чтобы все были сыты и обуты, согреты и образованы. Это ведь так естественно! Но это и опасно. Недаром Стивен Хокинг недавно высказал мысль о неизбежности освоения космоса. Нет, не оттого, что это очень интересно. Просто иначе вымрем, лишив себя реальных проблем – так этот мир устроен.
Роль личности в истории.
Потом встречается небольшое углубление и спокойные решают, что это их гавань. Но народу прибывает, всем места не хватает и надо дальше куда-то течь. Но куда? Время разброда и шатания, время революционеров, горлопанов, пророков и провидцев. И в конце-концов переполнившаяся чаша проливается потоками в разные стороны. Образуются новые партии, нации, народы, виды и подвиды. А всего-то локальный минимум.
А потом поток напарывается на седловую точку – это когда как и в локальном минимуме все частные производные обращаются в нуль, но сигнатура квадратичной формы неэллиптическая. Т.е. не все только минусы или плюсы, а и вразброд. Слегка задержавшись на хребте, народ поволнуется куда идти. Но крайние рванут в разные стороны куда им ближе и только самые средние долго будут еще сомневаться, пока все не разбегутся, не разбредутся. Вот и опять история «единого народа» разделилась. Опять критическая точка. А мало ли их по жизни?
Так и с личностями - их никто не слушает и никому они не нужны пока поток течет быстро и могуче по градиенту, матрица гессиана положительно определена и собственные вектора что надо!
И наоборот, в критических точках, когда градиент вырожден, принятие дальновидного решения очень важно. Идти-то почти всё-равно куда, то ли за белыми, то ли за красными... но всё-равно пожалеешь.
Это я вам описал как решается оптимизационная задача – поиск ближайшего минимума, выход из него, переходы через седла, конечный поиск глобального и вечные сомнения, что могло бы быть и лучше.
И где-то наверное так оно и есть.
Нейронные сети
Вы в курсе что такое нейронные сети НС? Бьюсь об заклад, что большинство не знает и знать не желает. Сам был такой. Я до совсем недавнего времени был совсем ка и вы не в курсе. Казалось, что это что-то неподъемно сложное, топ науки. Не для простого ума. Но оказалось, что всё дело в шариках, которые любят рисовать, когда рассказывают про то как устроен искусственный нейрон или Перцептрон Розенблатта и как из них строятся сети Хопфилда, Кохонена и пр. Наши мозги устроены не в пример проще, сермяжнее и лучше реагируют на формулу или теорему чем на такие красоты.
Так вот, суть нейронных сетей в теореме Колмогорова-Арнольда, которая утверждает, что любая непрерывная на компакте функция может быть разложена в конечную суперпозицию каких-то заранее известных многомерных функций «фи». Т.е. из многомерной получается одномерная.
Сначала это кажется какой-то ерундой. Но представьте, что эти «фи» всего-навсего линейные функции, заданные на небольших прямоугольных(параллелепипедных) областях. Они стандартны и невыразительны. А дальше мы начинаем их по всякому изгибать, чтобы они получше подходили к искомой зависимости... . Ну, в общем такой финт, больше зависящий от времени работы изгибальщика-примеряльщика, чем от чего-либе другого, т.е. одномерный. Изгибания – это уже одномерная функция «пси», в принципе даже от самих координат не зависящая. Кому интересно в подробностях, могу ссылочку кинуть.
Так вот, теперь представьте, что вы вместо «фи» подставили «искусственные нейроны», на самом деле банальную свертку входного вектора с ковектором весов-параметров. Кстати, и не просто свёртку – там еще смещение d присутствует. Как ни крути, а это просто локальное разложение в ряд Тейлора, которое мы проходили на первом курсе.
А в качестве «пси» что?
Тут не сразу без серьёзного бутыля доходит: в «пси» вошли структура-топология сети – взаимное расположение нейронов и их связей, вид выходного сигмоида – нелинейная функция, зависящая от результата свёртки и... коэффициенты свёртки-веса. Я бы сказал, что интерпретация этой замечательной теоремы в НС довольно вольная, но дело в том, что создатели сетей теорем не читали, а как-то сами догадались.
Наверное трудно сообразить как такая сеть может что-то аппроксимировать? Тут хитрость в том, что свёртки линейны, а сигмоиды создают всевозможные искривления, которые можно подладить под нужную зависимость правильным подбором параметров, которыми являются веса нейронов. О том, что это можно сделать как раз теорема Колмогорова-Арнольда и позаботилась.
Теперь осталось выяснить как получить правильные веса.
Для этого существуют алгоритмы обучения сети на некоторой входной последовательности с известным y=f(V) и V - входным вектором. Так вот, оказывается, для просто нейрона итерационный процесс тренинга выглядит так
Wk+1=Wk+a*V,
где Wk – весовой вектор, a – малый параметр со знаком разности значения y из обучающей последовательности и вычисленного значения на данном этапе итерации. Для всей сети чуть сложнее, и называется мудрёнее «backpropagation», но суть та же.
Вот так просто и это чудо еще и сходится!
Эта магия не может не очаровать неофита в науке и в математике любителя. Не любители конечно же сразу раскусили, что тут не обошлось без метода скорейшего спуска и что всё это в оптимизации давно есть и любому дураку ясно.
Но как изящно! Так совместить давно известное в совершенно новое!
Скрестить ужа и ежа и при этом получить два метра колючей проволоки!
Наверно бывалые люди вспомнят, что аппроксимировать и полиномами можно, и рядами Фурье и вообще любыми ортогональными многочленами, хоть того же Пафнутия Львовича, которым нас Иван Петрович Мысовских так стращал. Но есть ма-ахонькая разница – усложнение полиномов ведет к «проклятию размерности», когда появляется ненужная рябь и хвосты устремяются в бесконечность просто неудержимо. В нейронных сетях если не хватает точности, просто добавляют нейронных мощностей, которые на такой случай всегда под боком. И всё тихо и гладко и думать ни о чем не надо. Написанная выше формула и есть самая высшая математика всей теории НС, достаточная для получения впечатляющих результатов.
Оттого-то так технарям она и по сердцу.
Больше... .
Фракталы, пыль Кантора, континуум гипотеза, голография, хаос
и бессмертная душа.
Люди не толкущиеся в области перечисленных проблем, а таковыми являются большинство из заносчивых математиков, скорее всего подумают, что это просто несвязанный между собою компот из модных слов.
Мандельброт
Танцующий кролик
Пыль Кантора, Julia
Существуют многочисленные определения перечисленных понятий, в том числе и «на пальцах», т.е. для кухарок. Но не для математиков, для которых бытовая элементарщина порой доходит лишь на седьмые сутки.
Начнем с фрактала Мандельброта. Это всего лишь умело раскрашенные точки схождения итерационного процесса на комплексной плоскости, описываемого формулой Zk+1 = (Zk)2+С. Аналогичный красивый фрактал дает итерационный процесс Ньютона Xk+1 = Xk-f/f’.
Т.е. какая-то поганая коротенькая формула выдает на гора красочный бесконечно сложный и неповторяющийся мир фрактала. Как он умещается в этой формуле?
Еще вспомнили, что аналоги были и раньше – «пыль Кантора», «чертова лестница», «ковер Серпинского», «линия Пеано». Вспомнили про чудеса с размерностью, которая для перечисленных объектов порой принимает дробные величины: 1.63, к примеру, для ковра. И снова итерации и опять что-то бесконечно усложняющееся, завинчивающееся и падающее неудержимо вниз, внутрь при крайне примитивном описании итерационного процесса.
А еще вспомнили третью фрактальную версию – как поточнее посчитать длину границы бывшего СССР? Ведь задача была серьёзная, длиной гордились и хотели иметь её побольше. И оказалось, что чем точнее её меришь, тем длиннее она становится. В пределе устремляясь к бесконечности.
Что-то типа неопределенности Гейзенберга или линии Пеано, но в масштабах СССР и на радость Политбюро. Ну чем вам не фрактал?
И ведь еще дотошные обнаружили, что при "полете внутрь" фрактальной структуры наблюдается некоторая повторяемость, но не полная, а в виде неявной похожести. Тут же посмотрели на небо, где наподобие солнечной системы вокруг центров галактик кружат светила, сами галактики кружат вокруг центров метагалактик... вглубь посмотрели и узрели, что атом со своими электронами ну очень похож на солнечную систему. А вдруг как там так же стоят на поверхности электрона и задрав микроголовы смотрят на тарелку галактики, которая является всего лишь тарелкой на нашем столе?
Ну и естесственно мысль не дает покоя – если строение Вселенной фрактальное, то оно должно продолжаться бесконечно вглубь, периодически повторяясь в виде всё более и более мелких солнечных систем.
А душа, душа человеческая какое отношение к эти премудростям имеет? Ну не всё сразу – душа материя тонкая, животрепещущая. С ней поаккуратней надо. Поговорим лучше о Хаосе.
Хаос - это явление трудноопределяемое и почти мистическое. Мы знакомы с ним по хаосу в доме или в голове после очередного вала информации, особенно после доброго отдыха. Мы отождествляем хаос с газом и броуновским движением, датчиком случайных чисел и гауссовым, пуассоновским или логнормальным распределениями. А то и с распределением вейбуловским, которое всех нас потихоньку с этого света на тот перетаскивает.
Но интересно, как можно назвать хаосом процесс, строго и неукоснительно подчиняющийся кривой распределения? Что за хаос в газе, когда он состоит из бесконечно повторяющихся идентичных частиц и каждая в принципе ведет себя совершенно предсказуемо, да и газ в целом ведет себя предсказуемо? Дело в предсказуемости: если мы не можем предсказывать на каком-то уровне детализации, то объявляем явление хаосом. Соответственно, должны принимать решения – локальные или глобальные, напрочь минуя промежуточные, заменяя их подбрасыванием монетки – орел, решка.
Вообще понятие хаоса во многом эквивалентно принятому у нас «поведение сложных систем», но что-то есть новое. В частности, в части скачкообразных переходов между разными структурными уровнями, на которых предсказания еще возможны. Это как мелкие предсказуемые объекты соединяясь образуют хаотическую бестолковую толпу. Затем, когда эта толпа укрупнившись становится действительно «толпой», она снова понятна и предсказуема – она уже новый объект и для неё-толпы правила писаны.
Обратите внимание – опять фрактальная структура переходов к новым объектам через изменение размеров наблюдателя или, скажем так, от грубости или тонкости его наблюдательной активности.
А душа?
Ах, да, душа..., да что душа? Поживём – увидим. Вы вот подумайте лучше о загадочной схожести электронов. Ведь их неисчислимые мириады и все они абсолютно одинаковы, различаясь лишь конечным набором – координатами в пространстве, энергией, должно быть еще положением в атоме, чем-то наверное еще. И вот это «еще» вкупе с неопределенностью Гейзенберга смущает – мы не можем указать одновременно точных координат и энергии-импульса электрона. Как тогда доказать, что два из них идентичны? Как поставить их в совершенно одинаковые условия, чтобы гипотезу проверить? Ну ладно, что их нельзя поставить в одно время в одну пространственную точку. Так ведь еще и эту точку не локализировать с достаточной точностью!
Т.е. все они разные, но всегда чем-то индивидуальны.
Наверное это как с солдатами в строю – как ни пытаются бравые командиры добиться кристаллорешетчатой неразличимости зеленых фигур, они всё-равно чем-то всегда различны. И каждый продолжает нести внутри свой индивидуальный мир – душу.
А нужна ли она, душа?
Вот тут и вспомним, кстати, про голографию. Но о ней вы уж точно читали.
Канторовы множества и прочее.
Я не думаю, что многие из вас помнят или даже слышали про теорему Левенгейма-Сколема. Впрочем, сейчас в Интернете всё с легкостью найти можно и никакие университеты и их препы не нужны. Всё просто так в уши влезает, были бы уши. Что бы не заставлять занятых людей шарить по Сети, я вам лучше процитирую. На пальцах:
“Ни одна точка зрения, которая фиксирует только истинностные значения целостных предложений, не может фиксировать референтов, даже если она определяет истинностные значения предложений в любом возможном мире”. Это теорема Патнэма (стр. 33), которую мы постараемся объяснить. Выразим ее в терминах кошек и вишен. Всякий раз, когда вы говорите о вишнях, вы можете иметь референтом то, что я называю кошками, и наоборот. Если бы я со всей серьезностью собирался сказать, что кошка – на коврике, вы бы согласились, поскольку считали бы, что я говорю о том, что вишня – на дереве. Мы можем достичь полного согласия относительно фактов мира, то есть о предложениях, которые мы считаем истинными, и все же, тот факт, что когда я говорю о кошках, вы говорите о том, что я называю вишнями, может так никогда и не выплыть наружу. Более того, ваша система референции может так систематически отличаться от моей, что различие между нами может и не проявиться, независимо от того, какие истины относительно кошек и вишен имеют место.
Это удивительное заключение следует из хорошо известного результата в математической логике, называемого теоремой Левенгейма-Сколема. Основная ее мысль основана на результате работы Левенгейма 1915 года и разработана Ф. Сколемом в 1920 году. В то время казалось возможным охарактеризовать математические объекты, такие как множества, с помощью системы аксиом. Предполагаемый объект, такой как множество, был бы ничем иным, как тем, что удовлетворяет некоторым аксиомам, и таким образом аксиомы определяли бы класс предполагаемых объектов. Более того, это надеялись сделать в единственно хорошо понимаемой области логики, называемой логикой первого порядка, использующей логические связки (“и”, “не”, “или” и т. д.) и кванторы первого порядка (“для любого”, “существует”).
В те времена логики думали, что некое подобие теории множеств могло бы служить основой многих или даже всех ветвей математики. Георг Кантор доказал знаменитый результат. Вначале он прояснил идею того, что некоторые бесконечные множества могут быть больше, чем другие. Затем он показал, что множество подмножеств натуральных чисел больше, чем множество натуральных чисел. Другими словами, он показал, что множество всех действительных чисел, то есть чисел, выразимых в виде (бесконечных) десятичных дробей, больше, чем множество натуральных чисел.
Когда этот факт был переварен и усвоен классическими логиками, Левенгейм и Сколем доказали нечто, что на первый взгляд казалось парадоксальным.
Вы выписываете некоторые постулаты, которые, как вы надеетесь, выражают саму суть множеств, построенных из множеств натуральных чисел. В рамках этих постулатов вы доказываете теорему Кантора, которая говорит, что множество подмножеств натуральных чисел не перечислимо, то есть не может быть поставлено во взаимнооднозначное соответствие с натуральными числами, и таким образом, больше, чем само множество натуральных чисел. Пока все понятно. Чтобы ваши постулаты поняли так, как вы хотите, вы говорите о множествах Кантора. Однако Левенгейм и Сколем доказали, что любая теория, выраженная в логике первого порядка и истинная для некоторой области объектов, также справедлива и для некой перечислимой области. Итак, вы предполагали, что ваши постулаты будут истинны относительно канторовских множеств. Теорема Кантора тут же убеждает нас, что канторовских множеств больше, чем натуральных чисел. Но те же самые постулаты могут быть проинтерпретированы таким образом, что они будут истины для гораздо меньшей области. Предположим, что Р – знак, который в вашей теории означает множество всех подмножеств множества натуральных чисел. Оно больше, чем множество натуральных чисел. Но ваша теория может быть переинтерпретирована так, что Р обозначает нечто весьма отличное, а именно множество, не большее чем множество натуральных чисел.
Одно время теорема Левенгейма-Сколема казалась парадоксальной, но теперь к ней привыкли. Многие люди, изучающие логику, считают ее довольно очевидной, естественной и неизбежной. Они говорят нечто вроде следующего: “для первопорядковой теории должны существовать нестандартные модели”.
А почему бы нас не просветить нашему самому главному и самому уважаемому логику, тулузскому профессору Сергею Соловьёву?
Распознавание образов РО – одна из очень популярных тем для прикладной математики. Ею занимаются все кому не лень, но в последнее время она считается едва ли не основной составляющей искусственного интеллекта ИИ. Как будто в распознавании вся суть интеллекта. Разумеется это не так – есть еще и ответные действия, есть предвидение реакции на свои действия, есть еще что-то. Но очень важно, что такая внешне простая и очень прикладная задача признана за часть интеллекта. Ведь сам по себе ИИ всё еще неразрешим, значит и с РО не всё так просто как кажется на первый взгляд.
Я с ней впервые столкнулся в незапамятные желторотые времена, когда заказчик попросил меня создать быстроработающий алгоритм распознавания. Причем меня поразило отсутствие постановки задачи – что распознать, насколько надежно, что такое вообще распознать? Как-то для заказчика само собой подразумевалось, что и так всё понятно. Позже я не раз с этим феноменом сталкивался и каждый раз испытывал некоторое чувство бессилия, даже не оттого, что не решить, а оттого, что люди не понимают чего хотят. Читал всевозможные статьи по этой теме, их пишут как правило люди далёкие от математики, хотя ловко оперирующие громоздкими формулами. Формул много, алгоритмов много, жизнь кипит, контора пишет, остановиться, подумать некогда.
Представьте, что Вы смотрите на картину Пикассо и видите портрет Руссо. Желая рассмотреть поближе обнаруживаете, что это что-то другое, но поначалу не понять. Приближаетесь еще и видите, что это две монахини, арки какого-то строения и прочие детали, издали все вместе образующие вид человечьей головы.
Приближаемся еще больше и образ снова смазывается, разбиваясь на отдельные мазки кисти, еще ближе и видна структура холста, еще... . Там не один, там много образов. Если не задаваться глупыми вопросами и предполагать изначально, что вы с заказчиком мыслите по единому стандарту, то вы быстро распознаете то, что ему нужно и оба будете довольны друг другом.. Но в общем случае это не так тривиально и радужно.
Далее...
Это в переводе на русский – нечёткая логика. Немного странный термин и не очень понятно зачем может понадобиться нечеткость, когда все можно решить четко и внятно как на строевом плацу – ать, два? Однако же я с этой штукой столкнулся нос к носу, когда её еще и в помине не было. Т.е. нечеткой логики еще не было, а проблемы уже были. Занимался я обратными задачами матфизики в приложении к практике, и очень нужно было вместе с основным решением получить оценки погрешностей, а еще лучше получить распределение вероятностей, а еще..., в общем разгубастился, но на кафедре теории вероятностей меня быстро остудили – большинство таких задач, увы, современной науке не под силу. Посоветовали что-то типа метода статиспытаний, а так выкручивайся как умеешь. И призадумался и подумал как Манилов: а почему бы на сделать такую арифметику, что вместе с обычными вычислениями одновременно вычислялись бы погрешности или распределения ошибок? Помучился, помаялся и бросил. А другие не бросили и создали Fuzzy Logic и стали знаменитыми. Боско, Заде, слышали? Нет, не слышали – не удивительно. Там, за печкою... .
Основная идея – распределения и операции с ними упрощаются до разумного предела, когда еще смысл действий не совсем теряется, но тащить вычисления без умопомрачительного усложнения на каждом шаге уже можно. Каждая величина вводится как значение и нечеткость – плотность вероятности, линейно спадающая в обе стороны. Обычно в этом случае рисуется плотность нормального распределения Гаусса – куполообразная функция, а здесь она по сути приближается треугольником или трапецией с матожиданием и дисперсией, свойственным обычной случайной величине.
А дальше-больше – сумма этих случайных величин определяется как объединение плотностей распределений! Это конечно же лажа и любой знающий начнет тут же кипеть благородным возмущением и тыкать в учебник пальцем. Да-с, действие, скажем так, нечеткое, однако оно достаточно примитивное, ничего не портит, но суммарная величина получает тоже какое-то распределение, не очень похожее на правильное, но всё же. И вот что любопытно: чем дальше вычисляем, тем эта похожесть как была «на уровне», так ею и остаётся. Т.е. конечное вычисленное и правильное распределения примерно соотносятся так же как первичные гауссоида с аппроксимирующей её трапецией – мы получем похожее на правду распределение сложной случайной величины, вместо того, что бы страдать всей кафедрой теории вероятности от осознания печального факта, что этого никак сделать низ-зя!
Ну а теперь почитаем, что пишут на эту тему другие люди.
Далее... .
Многокритериальные задачи – это формализация старого детского стишка:
Крошка сын пришел к отцу
И спросила кроха:
Что такое хорошо
И что такое плохо?
Т.е. за мудреным названием скрывается старая проблема – понять делать или не делать, казнить или миловать, ехать-не ехать? Это называется «принятием решений в условиях неопределенности и риска» и это целая наука. Решение в конечном итоге всё-таки кто-то принимает и такая важная персона назвается ЛПР – «лицо, принимающее решение». Но проблема в том, что часто ЛПР не очень желают нести ответственность за принятые решения и предпочитают переложить часть ответственности на мелких сошек-стрелочников, которыми в данном случае выступают бедные едва оперившиеся прикладные математики. ЛПР требует на основе собранной информации дать ему взвешенное мнение, дабы освободить себя от груза личной и ненужной ответственности.
Как это делается? В теории, вызываются советники-эксперты, они изучают тему и выкладывают каждый своё мнение. Т.е. один говорит «надо, потому,что...».
Другой выходит следом и говорит «не надо, потому, что...». Сплошное расстройство - и у того и у другого доводы разумные, но решение должно быть какое-то одно. Как свести их воедино? Это ведь тоже для ЛПР проблема – примешь сторону одной команды, скажут, что подыгрывает, примешь другую - подумают, что подкуплен. Т.е. надо еще других специалистов звать, которые будут мнения предыдущих экспертов соединять в единую рекомендацию и что бы никому не обидно было, а ответственность за ответственное решение на себя взяла программа, алгоритм и, в конечном итоге, математика и математики, которые ни уха ни рыла в том о чем, собственно, речь. А можно вообще подальше экспертов отодвинуть и головы их не загружать, спрашивать что-то совсем простое и в результате выдавать «взвешенное» решение? В принципе, можно. Но, как показала практика, тогда головы уже начинают болеть у математиков – как вытащить из экспертов то, что нужно и что вообще нужно и что с этим добром потом делать?
Предположим, что у нас есть входная информация о теме, по которой надо принять решение. Ну, например, отбор пионеров в престижный пионерлагерь типа Артек. Присылают пионеры заполненные по единой форме анкеты, а серьёзные дяди читают и выставляют какие-то оценки, оценки суммируются и набравшие высшие баллы имеют шанс поехать. Описанное формализуется естественным образом – есть входной вектор параметров с компонентами V=(V1-возраст, V2-рост, V3-вес, V4-средняя оценка успеваемости, и т.д.), выраженными в числах. Эти частные пераметры-компоненты входного вектора называются в данной науке критериями На выходе должно быть число – балл, который называется обобщенным критерием или оценкой критерия. Таким образом, это не что иное как функция, называемая функцией полезности, функцией цели, функцией обобщенного критерия и пр., и которая в целом неизвестна. Как это неизвестна, а как же дяди ранжируют кандидатов? Да у них инструкция – рост побольше, вес и возраст поменьше, оценку за четверть опять побольше. Т.е. чем... тем лучше. И наоборот: чем... тем хуже.
Хм, а если у одного рост чуть побольше, а у другого оценка чуть повыше, тогда как? И выдумывают относительную или абсолютную важности критериев, сами критерии ранжируют, жизнь кипит-контора пишет. На каждый вопрос должен быть ответ, вот и усложняется наука, доводится до состояния, когда уже непонятно, а зачем она вообще нужна и не проще ли методом тыка и пальцем в небо на авось?
Обычно экспертов опрашивают именно о важности критериев: насколько важно, чтобы объект был повыше или постройнее или помоложе? Требуют выдать числовые оценки, которые потом добросовестно на что-то нормализуют и запихивают в качестве весов во взвешенную сумму вводимых параметров. Обычно в сумму, но некоторые умудряются запихивать в произведение или в сумму квадратов или что-то смешанное, да еще и в степень возведут – творчество масс границ не знает.
А выдумало ли человечество что-либо более величественное и значимое, чем детсадовское разложение гладкой фукции в степенной ряд Тейлора? Вряд ли, поэтому взвешенная сумма есть не что иное как линейная часть разложения неизвестной многомерной функции, а усилия экспертов сводятся к угадыванию частных производных – в двнном случае весов. Таким образом, несмотря на такую замудренную накоемкую накрутку, всё крутится вокруг линейного разложения, которое работает только если либо функция полезности a priori линейная либо мы рассматриваем её в достаточно малой области где линеаризовать позволительно. А что на практике? А на практике один эксперт приглашен из команды баскетболистов и знает, что лучше повыше, другой из театра лилипутов, сам лилипут и любит тех, что пониже, а представитель швейной фабрики «Большевичка» предпочитает стандарты – статистическое среднее – его сердца идеал. В этом случае мы наблюдаем, что по росту явно имеется экстремальная точка, но приглашенные эксперты нормализуют критерии не глядя на то, что точка разложения плавает от эксперта к эксперту, и сводят всё воедино и усредняют, как температуру по больнице.
А Вы про оптимум Парето слышали? Я так и думал.
Что Роберт Браун видел в свой микроскоп. Приятный аплет и с ним можно даже поиграться
http://www.investo.ru/digest/chaos_brown.html
Потерянный мир и куча мелких анимированных динозавриков.
http://lostworldplateau.homestead.com/lostworldplateau.html
Здесь говорят про искусственный разум и искусственную жизнь вообще
http://www.spnet.ru/alexkuck/aiforum/
Алгебра и теория чисел. Примерная программа дисциплины. Живо напоминает матмех.
http://gamma.niimm.spb.su/user/mbk/351500/ENProgs/Algebra.html
А вот еще забавная страничка для изучения математики. Формулы, формулы....
http://www.mstu.edu.ru/structure/faculties/ff/math/met3/mu_zu1.htm
Вот как выглядит паукообразный фрактал. Бывают и получше, но этот тоже хорош
http://www-rohan.sdsu.edu/faculty/symbol/newton.html
Для тех кому надо что-то оптимизировать, метод Ньютона-Рафсона крайне примитивен и эффективен
http://www.dai.ed.ac.uk/CVonline/LOCAL_COPIES/BMVA96Tut/node23.html
.http://www.eso.org/projects/esomidas/doc/user/98NOV/vola/node129.html
Нейрокибернетика, нейроинформатика, нейрокомпьютеры. Горбань и К.
http://neurnews.iu4.bmstu.ru/book/neurinf0/ann.htm
.Сказка о Тройке. Аркадий и Борис Стругацкие
http://www.fantasy.kiev.ua/S/Strug_/rar/Taletroi.htm
.
Понятие аналитического продолжения. Если кто-то забыл.
http://afrodita.phys.msu.ru/tfkp/tfkp2000/text/par13.htm
.
Курс вычислительной геометрии (англ.)
http://www-cgrl.cs.mcgill.ca/~godfried/teaching/cg-web.html
.
Метод Группового Учета Аргументов на английском. Во, Украина даёт!
http://www.inf.kiev.ua/GMDH-home/
.
Работы по аналитической геометрии с формулами и красивыми графиками.
http://www.gauss.ru/educat/systemat/dyachenko/lr1/1.asp
.
Кригинг интерполяция на плоскости. С красивыми картинками(англ.)
http://www.gauss.ru/educat/systemat/dyachenko/lr1/1.asp
.
.Свойства искусственных нейронных сетей. Популярно и по русски.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch15.html
.
Пакет SURFER. На русском.
http://visual.2000.ru/kolesov/pcweek/1995/pcw9516.htm
.
Наука, наука, наука,... эх, наука!. (рус.)
http://weblist.ru/russian/Science/index_all.html
.
Если вы желаете попрограммировать последовательный компорт, то вам сюда.
http://www.traverse.com/people/poinsett/bcbcomm.html
.
Здесь разговаривают кто о чем, а в частности, и о душе тоже.
http://recycle.psyberdelique.ru/
.
Международный клуб ученых, но какой-то нетрадиционной ориентации.
http://shaping.ru/mku/
Клуб ниспровергателей ТО. Андрей Ким "Теория Относительности и ошибки А.Эйнштейна".
http://rusnauka.narod.ru/lib/phisic/stoerror.htm
TEX для WEB.
http://hutchinson.belmont.ma.us/tth/
Нейронные сети - оружие финансиста
Этот нечеткий, нечеткий мир (все о нечеткой логике)
Тропою создателя (все об искусственной жизни) Реинжиниринг бизнес-процессов
http://www.tora-centre.ru
.
Молекулярная информация. Миф или реальность?
http://science.ng.ru/polemics/2000-03-22/3_molec_info.html
Комментариев нет:
Отправить комментарий