От вероятности в азартных играх к вероятности в ИИ

алгоритм задняя часть
От вероятности в азартных играх к вероятности в ИИ

неопределенный мир

Мир, в котором мы живем, в целом неопределенен.За исключением нескольких детерминированных событий, большинство событий являются неопределенными. Нам нужна вероятность для описания этих неопределенных событий.В настоящее время теория вероятностей проникла в различные дисциплины.Можно сказать, что это очень важная часть системы человеческих знаний. Теория вероятностей научна, а научные теории также нуждаются в поддержке теории вероятностей.

О вероятности

Если бы кто-то сказал вам, что завтра солнце взойдет с востока, то вы бы подумали, что это определенность, потому что так будет в обозримом будущем человечества, и мы скажем, что такие вещи имеют 100% вероятность. . Но если продавец страховых услуг рекомендует вам страхование, вы можете быстро использовать различные теории, чтобы вычислить, какой продукт лучше для тех, кто мыслит вероятностно. От простых игральных костей до сложного макропрогнозирования погоды, экономического прогнозирования фондового рынка, микроскопической квантовой механики и т. д. — все они требуют вероятности для описания.

игра вероятности

Самые ранние истоки теории вероятностей можно проследить до египтян до нашей эры, которые уже начали играть в игры с костями, как и современные люди. В отличие от современных людей, они играли в кости, потому что в то время был сильный голод, чтобы они могли забыть о голоде, в то время как современные люди играли в кости, потому что были слишком сыты, чтобы есть.

К семнадцатому веку европейская аристократия преобладала в азартных играх, используя различные случайные игры. Некоторые из них начинают думать о случайных играх, что более вероятно? До 1654 г. заочная дискуссия между Ферма и Паскалем по «проблеме дележа ставок» признавалась признаком зарождения теории вероятностей, а они и Гюйгенс были известны как основоположники ранней теории вероятностей.

Можно сказать, что происхождение теории вероятностей — азартные игры и игры, а затем она начала развиваться из азартных игр.

Позднее развитие теории вероятностей

Дальнейшее развитие теории вероятностей имеет мало общего с азартными играми, оно в основном обусловлено развитием науки и техники, в то же время в социальной жизни существует множество вероятностных явлений, которые также способствуют развитию теории вероятностей. Существует множество дисциплин, тесно связанных с теорией вероятностей, таких как физика, экономика, информатика, естественные науки, социальные науки, информатика, техника связи, биология, метеорология и так далее.

Теория вероятностей ИИ

Искусственный интеллект включает в себя многие аспекты математики, включая линейную алгебру, исчисление, теорию вероятностей, математическую статистику, теорию оптимизации и так далее. Можно сказать, что нынешний ИИ является продуктом слияния математики и информатики.Модели строятся с помощью математических методов, а модели управляются данными и вычислительной мощностью, так что машины имеют возможность понимать объективный мир. В настоящее время основным направлением ИИ по-прежнему является машинное обучение и глубокое обучение, которые также включают теорию вероятности. Подробнее читайте ниже.

image

Вероятностные вычисления в глубоком обучении

Глубокая нейронная сеть будет использовать функцию правдоподобия на выходе для представления вероятности каждой классификации, как правило, с использованием softmax. Softmax может нормализовать вероятность, каждая единица в выходном слое представляет значение вероятности каждой классификации, сумма равна 1, а классификация с максимальной вероятностью используется в качестве прогнозируемой классификации. Нейронная сеть будет включать в себя входной слой и скрытый слой, и, наконец, вероятность при различных условиях может быть получена с помощью анализатора softmax.Следующий рисунок разделен на три категории, и, наконец, y = 0, y = 1, y = 2 значение вероятности.

softmax

Стохастические механизмы для глубокого обучения

В дополнение к упомянутому выше расчету вероятности softmax выходного слоя, в глубоком обучении также есть случайная инициализация весов и механизмы отсева, которые включают случайные проблемы. Можно сказать, что инициализация параметров в процессе обучения глубокой нейронной сети очень важна.Это может повлиять на проблему, что модель не может быть обучена или время обучения больше.Например, если все веса инициализированы для 0, градиентный спуск не удастся. Как правило, используется обычное использование. Распределение случайным образом инициализирует веса. Кроме того, механизм отсева также используется во время обучения, чтобы предотвратить проблему переобучения, которая случайным образом отключает нейроны, чтобы избежать переобучения.

dropout

Исследовательский анализ и предварительная обработка

Исследовательский анализ данных и предварительная обработка данных будут включать множество вероятностных и статистических методов, таких как простейшая частота, мода, среднее значение, медиана, отклонение, дисперсия, ковариация, коэффициент корреляции и так далее. Во время предварительной обработки данных может быть выполнена нормализация и изменено распределение выборок.

探索性分析

Байесовская вероятностная графическая модель

Можно сказать, что модель байесовского вероятностного графа является еще одной очень динамичной ветвью ИИ, хотя в настоящее время глубокому обучению уделяется меньше внимания, но это важное направление ИИ. Проще говоря, модель графа вероятностей представляет собой направление объединения теории вероятностей и теории графов, в котором узлы наблюдения представляют данные наблюдения, а скрытые узлы представляют знания, а ребра представляют связь между знаниями и данными, а распределение вероятностей получается согласно к структуре графа для решения проблемы. Общие вероятностные графические модели включают простейшие наивные байесовские модели, модели максимальной энтропии, скрытые марковские модели и условные случайные поля.

概率图

общее распределение

Понимание общих дистрибутивов будет очень полезно при построении оптимизированных моделей ИИ. Ниже приведены распространенные дистрибутивы.

Распределение Бернулли, которое представляет собой простое распределение только с двумя возможными исходами, такими как подбрасывание монеты. Вероятность выпадения орла равна p, а вероятность выпадения решки равна 1-p.

伯努利分布

Биномиальное распределение, распределение Бернулли — это частный случай биномиального распределения, когда за эксперимент подбрасывается только одна монета, это распределение Бернулли. Для каждого эксперимента с подбрасыванием монеты более одного раза подряд вероятность выпадения орла по-прежнему равна p, а вероятность выпадения решки равна 1-p.Например, в каждом опыте подбрасывается 4 монеты, то есть 0 орлов, 1 орел , 2 орла, 3 орла, Вероятностное распределение 4 орла,

二项式分布

Полиномиальное распределение является обобщением биномиального распределения.В биномиальном распределении есть только два возможных результата, а в полиномиальном распределении есть много возможных результатов. Как и у игральной кости, у него 6 граней, каждая грань имеет вероятность 1/6, а все вероятности в сумме дают 1. Если кости бросают дважды в каждом эксперименте, то есть распределение вероятности ни одного успеха, только одного успеха и двух успехов.

多项式分布

Нормальное распределение — это очень распространенная непрерывная случайная функция, также известная как функция Гаусса, которая может быть определена двумя простыми мерами: средним значением и дисперсией. Нормальная кривая имеет форму колокола, низкую на обоих концах, высокую в середине и симметричную слева и справа.Поскольку кривая имеет форму колокола, люди часто называют ее колоколообразной кривой.

正态分布

Об авторе: псевдоним мореход, хорошо разбирается в искусственном интеллекте, информатике, математических принципах, базовых алгоритмах. Книги: "Анализ проектирования ядра Tomcat", "Структура графических данных и алгоритм", "Популяризация принципов искусственного интеллекта".

Поддержите автора, купите книгу автора!



Сосредоточьтесь на искусственном интеллекте, чтении и мышлении, расскажите о математике, информатике, распределенных технологиях, машинном обучении, глубоком обучении, обработке естественного языка, алгоритмах и структурах данных, глубине Java, ядре Tomcat и т. д.