#python #pandas #numpy #dataframe #data-manipulation
#python #pandas #numpy #фрейм данных #манипулирование данными
Вопрос:
У меня есть данные, похожие на это, где id посещает магазин каждые 6 месяцев, и некоторые из этих посещений включали посещение между ними (то есть каждый третий месяц), поэтому некоторые из этих идентификаторов насчитывали шесть месяцев, и среди них несколько посещенных между ними (3-й месяц), поэтому я пытаюсьчтобы найти тех, кто регистрировался каждые 6 месяцев, которые также регистрировались между этим 6-месячным периодом (3-й месяц)
id month_count
q1 3
q1 3
q1 3
q1 3
q2 3
q2 6
q2 6
q3 3
q3 3
Я хочу вывод, в котором мы можем идентифицировать строки идентификаторов для month_count всего 6, но с интервалом каждые 3 месяца.
как вы можете видеть выше для каждого идентификатора
id month_count
q1 3
q1 3
q1 3
q1 3
q3 3
q3 3
пробовал различные методы, но не смог понять это, пожалуйста, предложите способ сделать это.
Комментарии:
1. не могли бы вы объяснить, чего вы пытаетесь достичь, более подробно? И поделитесь исходным кодом вашей лучшей попытки, которая не увенчалась успехом?
2. чего я пытаюсь добиться, так это иметь возможность находить строки идентификаторов, в которых каждый идентификатор посещал определенный магазин каждые шесть месяцев, а также в течение этих шести месяцев, которые они посещали между ними (3-й месяц) для встречи в середине раз в два года (то есть один раз в месяц каждые 6 месяцев), теперь из списка идентификаторов, которые ясмог отмечать посещения каждые три месяца, но я изо всех сил пытаюсь дополнительно отфильтровать накопленные за шесть месяцев, чтобы получить нечто подобное приведенному выше. и мои неудачные настройки, в которых я использовал groupby на основе diff (), что дало мне только 6-месячный визит, а это не то, что я пытался получить.
3. вы должны включить в задачу все соответствующие столбцы и индексы. Вы должны точно указать, почему каждая строка должна быть отфильтрована или нет
4. Я прошу прощения за то, что не был ясен. Я обновил то, чего я пытался достичь.