Требует ли numpy.std равномерного расположения точек данных?

#python #numpy #standard-deviation

#python #numpy #стандартное отклонение

Вопрос:

Простите меня, я не так хорошо разбираюсь в статистике, как хотелось бы, но я хочу найти распределение точек данных, подобное гауссовскому (не совсем, но достаточно близкое). Когда я применяю numpy.std() к массиву значений, я получаю стандартное отклонение, выходящее за пределы диапазона моих значений x.

Я думал, что моя проблема заключалась в том, что мои точки данных расположены с логарифмическим интервалом (т. Е. Ось x представляет собой логарифмическую шкалу), но когда я интерполировал свою функцию по равномерно расположенным точкам данных, я все еще получал странное стандартное отклонение. Требует ли numpy.std () равномерно расположенных точек данных? Или проблема в чем-то другом?

Редактировать:

Мой дистрибутив (после нормализации) выглядит следующим образом:

И стандартное отклонение, если я не интерполирую его по равномерно расположенным точкам выборки, равно 3,65, а стандартное отклонение, если я это сделаю, равно 2,77. Может ли это быть связано с тем, что он слишком сильно взвешен в более низких значениях x? Нужно ли мне как-то отредактировать дистрибутив, чтобы сделать его более похожим на гауссовский для работы numpy.std()?

Комментарии:

1. Я думаю, что это проблема статистики, а не numpy. Определенно возможно получить стандартную разработку, превышающую ваше максимальное значение, особенно если у вас экстремально низкие значения выбросов или небольшие выборки. Очевидно, что ваша выборка также может повлиять на стандартную разработку: если выборка шире, чем ширина гауссова, тогда вам будет сложно получить какую-либо значимую статистику. Вы хотите опубликовать массив, и мы можем взглянуть на статистические причины этого?

2. @J.Warren Я отредактировал сообщение! Спасибо.