#python #numpy #standard-deviation
#python #numpy #стандартное отклонение
Вопрос:
Простите меня, я не так хорошо разбираюсь в статистике, как хотелось бы, но я хочу найти распределение точек данных, подобное гауссовскому (не совсем, но достаточно близкое). Когда я применяю numpy.std() к массиву значений, я получаю стандартное отклонение, выходящее за пределы диапазона моих значений x.
Я думал, что моя проблема заключалась в том, что мои точки данных расположены с логарифмическим интервалом (т. Е. Ось x представляет собой логарифмическую шкалу), но когда я интерполировал свою функцию по равномерно расположенным точкам данных, я все еще получал странное стандартное отклонение. Требует ли numpy.std () равномерно расположенных точек данных? Или проблема в чем-то другом?
Редактировать:
Мой дистрибутив (после нормализации) выглядит следующим образом:
И стандартное отклонение, если я не интерполирую его по равномерно расположенным точкам выборки, равно 3,65, а стандартное отклонение, если я это сделаю, равно 2,77. Может ли это быть связано с тем, что он слишком сильно взвешен в более низких значениях x? Нужно ли мне как-то отредактировать дистрибутив, чтобы сделать его более похожим на гауссовский для работы numpy.std()?
Комментарии:
1. Я думаю, что это проблема статистики, а не numpy. Определенно возможно получить стандартную разработку, превышающую ваше максимальное значение, особенно если у вас экстремально низкие значения выбросов или небольшие выборки. Очевидно, что ваша выборка также может повлиять на стандартную разработку: если выборка шире, чем ширина гауссова, тогда вам будет сложно получить какую-либо значимую статистику. Вы хотите опубликовать массив, и мы можем взглянуть на статистические причины этого?
2. @J.Warren Я отредактировал сообщение! Спасибо.