Warning: preg_grep(): Compilation failed: quantifier does not follow a repeatable item at offset 142 in /var/www/tg-me/post.php on line 75
Библиотека собеса по Data Science | вопросы с собеседований | Telegram Webview: ds_interview_lib/90 -
Telegram Group & Telegram Channel
На собесах любят спрашивать, что такое градиентный бустинг и причём здесь градиент.

Градиентный бустинг — это ансамблевый метод, то есть он комбинирует предсказания нескольких базовых моделей. В данном случае эти базовые модели (чаще всего деревья) строятся последовательно, и каждая новая учится исправлять ошибки предыдущих.

Всё начинается с простого предсказания начальной моделью целевой переменной. Затем вычисляется значение функции потерь (loss). Допустим, что предсказание первой модели на 5 больше настоящего значения. Если бы следующая новая модель выдавала ответ -5, то сумма ответов этих двух моделей оказалась бы идеальной. В реальности моделей может быть сколько угодно — строим до тех пор, пока не получим приемлемый результат.

Каждый очередной алгоритм в градиентном бустинге будет обучаться предсказывать отрицательный градиент (или антиградиент) функции потерь на основе предсказания предыдущей модели. Это позволяет обобщить метод на любую дифференцируемую функцию потерь. Конечным результатом будет взвешенная сумма результатов всех моделей.



tg-me.com/ds_interview_lib/90
Create:
Last Update:

На собесах любят спрашивать, что такое градиентный бустинг и причём здесь градиент.

Градиентный бустинг — это ансамблевый метод, то есть он комбинирует предсказания нескольких базовых моделей. В данном случае эти базовые модели (чаще всего деревья) строятся последовательно, и каждая новая учится исправлять ошибки предыдущих.

Всё начинается с простого предсказания начальной моделью целевой переменной. Затем вычисляется значение функции потерь (loss). Допустим, что предсказание первой модели на 5 больше настоящего значения. Если бы следующая новая модель выдавала ответ -5, то сумма ответов этих двух моделей оказалась бы идеальной. В реальности моделей может быть сколько угодно — строим до тех пор, пока не получим приемлемый результат.

Каждый очередной алгоритм в градиентном бустинге будет обучаться предсказывать отрицательный градиент (или антиградиент) функции потерь на основе предсказания предыдущей модели. Это позволяет обобщить метод на любую дифференцируемую функцию потерь. Конечным результатом будет взвешенная сумма результатов всех моделей.

BY Библиотека собеса по Data Science | вопросы с собеседований


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/ds_interview_lib/90

View MORE
Open in Telegram


Библиотека собеса по Data Science | вопросы с собеседований Telegram | DID YOU KNOW?

Date: |

The messaging service and social-media platform owes creditors roughly $700 million by the end of April, according to people briefed on the company’s plans and loan documents viewed by The Wall Street Journal. At the same time, Telegram Group Inc. must cover rising equipment and bandwidth expenses because of its rapid growth, despite going years without attempting to generate revenue.

Dump Scam in Leaked Telegram Chat

A leaked Telegram discussion by 50 so-called crypto influencers has exposed the extraordinary steps they take in order to profit on the back off unsuspecting defi investors. According to a leaked screenshot of the chat, an elaborate plan to defraud defi investors using the worthless “$Few” tokens had been hatched. $Few tokens would be airdropped to some of the influencers who in turn promoted these to unsuspecting followers on Twitter.

Библиотека собеса по Data Science | вопросы с собеседований from us


Telegram Библиотека собеса по Data Science | вопросы с собеседований
FROM USA