“Unlike with most human creations, we don’t really understand the inner workings of neural networks” (c)
Значение Шепли (Shapley values) — концепция из теории кооперативных игр. Задача, решаемая этими значениями связана с распределением выигрыша между игроками в кооперативной (говоря проще — совместной) игре. С 2017 года идея значений Шепли активно применяется в машинном и глубинном обучении, в частности — в области explainable AI. В этой статье предлагаю узнать о них больше! :)
Вторая часть кооперации двух лучистых пирогов: @data blog x @awesome_dl. В первой части у нас получилось не кратко, но интересно. Во второй — тоже.
Они очень старались сделать кратко и интересно, но вышло просто интересно. Серия статей про LLM и интерпретацию LLM.