#python #pandas
#python #pandas
Вопрос:
У меня есть последовательность временных меток (в миллисекундной временной базе Unix), хранящихся в серии pandas. Каждая временная метка относится к измерению датчика. Чтобы получить частоту дискретизации, я могу просто вычесть последнюю временную метку из первой, а затем разделить на количество временных меток:
# assuming df is my Series
sf = (df.iloc[-1] - df.iloc[1]) / len(df)
Но это не дает мне представления об изменении частоты дискретизации.
Как я могу вычислить стандартное отклонение частоты дискретизации?
Ответ №1:
Если у вас есть временные метки, сохраненные в числовой форме, я бы предложил просто проверить std интервала между двумя временными метками.
В вашем примере:
df.diff().std()