3. Демонстрация основных методов Pandas
Pandas — это библиотека Python, предоставляющая широкие возможности для анализа данных. Данные, с которыми работают датасаентисты, часто хранятся в форме табличек — например, в форматах .csv, .tsv или .xlsx. С помощью библиотеки Pandas такие табличные данные очень удобно загружать, обрабатывать и анализировать с помощью SQL-подобных запросов. А в связке с библиотеками Matplotlib и Seaborn Pandas предоставляет широкие возможности визуального анализа табличных данных.
Основными структурами данных в Pandas являются классы Series и DataFrame. Первый из них представляет собой одномерный индексированный массив данных некоторого фиксированного типа. Второй – это двухмерная структура данных, представляющая собой таблицу, каждый столбец которой содержит данные одного типа. Можно представлять её как словарь объектов типа Series. Структура DataFrame отлично подходит для представления реальных данных: строки соответствуют признаковым описаниям отдельных объектов, а столбцы соответствуют признакам.
# Обеспечим совместимость с Python 2 и 3
# pip install future
from __future__ import (absolute_import, division,
print_function, unicode_literals)
# отключим предупреждения Anaconda
import warnings
warnings.simplefilter('ignore')
# импортируем Pandas и Numpy
import pandas as pd
import numpy as np
Будем показывать основные методы в деле, анализируя набор данных по оттоку клиентов телеком-оператора. Прочитаем данные (метод read_csv
) и посмотрим на первые 5 строк с помощью метода head()
:
df = pd.read_csv('../../data/telecom_churn.csv')
df.head()
Про вывод датафрейма в тетрадке Jupyter
В Jupyter-ноутбуках датафреймы Pandas выводятся в виде вот таких красивых табличек, и print(df.head())
выглядит хуже. По умолчанию Pandas выводит всего 20 столбцов и 60 строк, поэтому если ваш датафрейм больше, воспользуйтесь функцией set_option
:
pd.set_option('display.max_columns', 100)
pd.set_option('display.max_rows', 100)
Каждая строка представляет собой одного клиента – это объект исследования. Столбцы – признаки объекта.
Описание признаков
Название | Описание | Тип |
---|---|---|
State | Буквенный код штата | номинальный |
Account length | Как долго клиент обслуживается компанией | количественный |
Area code | Префикс номера телефона | количественный |
International plan | Международный роуминг (подключен/не подключен) | бинарный |
Voice mail plan | Голосовая почта (подключена/не подключена) | бинарный |
Number vmail messages | Количество голосовых сообщений | количественный |
Total day minutes | Общая длительность разговоров днем | количественный |
Total day calls | Общее количество звонков днем | количественный |
Total day charge | Общая сумма оплаты за услуги днем | количественный |
Total eve minutes | Общая длительность разговоров вечером | количественный |
Total eve calls | Общее количество звонков вечером | количественный |
Total eve charge | Общая сумма оплаты за услуги вечером | количественный |
Total night minutes | Общая длительность разговоров ночью | количественный |
Total night calls | Общее количество звонков ночью | количественный |
Total night charge | Общая сумма оплаты за услуги ночью | количественный |
Total intl minutes | Общая длительность международных разговоров | количественный |
Total intl calls | Общее количество международных разговоров | количественный |
Total intl charge | Общая сумма оплаты за международные разговоры | количественный |
Customer service calls | Число обращений в сервисный центр | количественный |
Целевая переменная: Churn – Признак оттока, бинарный признак (1 – потеря клиента, то есть отток). Потом мы будем строить модели, прогнозирующие этот признак по остальным, поэтому мы и назвали его целевым.
Посмотрим на размер данных, названия признаков и их типы.
print(df.shape)
(3333, 20)
Видим, что в таблице 3333 строки и 20 столбцов. Выведем названия столбцов:
print(df.columns)
Index(['State', 'Account length', 'Area code', 'International plan',
'Voice mail plan', 'Number vmail messages', 'Total day minutes',
'Total day calls', 'Total day charge', 'Total eve minutes',
'Total eve calls', 'Total eve charge', 'Total night minutes',
'Total night calls', 'Total night charge', 'Total intl minutes',
'Total intl calls', 'Total intl charge', 'Customer service calls',
'Churn'],
dtype='object')
Чтобы посмотреть общую информацию по датафрейму и всем признакам, воспользуемся методом info
:
print(df.info())
Illegal HTML tag removed :
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 3333 entries, 0 to 3332
Data columns (total 20 columns):
State 3333 non-null object
Account length 3333 non-null int64
Area code 3333 non-null int64
International plan 3333 non-null object
Voice mail plan 3333 non-null object
Number vmail messages 3333 non-null int64
Total day minutes 3333 non-null float64
Total day calls 3333 non-null int64
Total day charge 3333 non-null float64
Total eve minutes 3333 non-null float64
Total eve calls 3333 non-null int64
Total eve charge 3333 non-null float64
Total night minutes 3333 non-null float64
Total night calls 3333 non-null int64
Total night charge 3333 non-null float64
Total intl minutes 3333 non-null float64
Total intl calls 3333 non-null int64
Total intl charge 3333 non-null float64
Customer service calls 3333 non-null int64
Churn 3333 non-null bool
dtypes: bool(1), float64(8), int64(8), object(3)
memory usage: 498.1+ KB
None
bool
, int64
, float64
и object
— это типы признаков. Видим, что 1 признак — логический (bool), 3 признака имеют тип object и 16 признаков — числовые. Также с помощью метода info
удобно быстро посмотреть на пропуски в данных, в нашем случае их нет, в каждом столбце по 3333 наблюдения.
Изменить тип колонки можно с помощью метода astype
. Применим этот метод к признаку Churn
и переведём его в int64
:
df['Churn'] = df['Churn'].astype('int64')
Метод describe
показывает основные статистические характеристики данных по каждому числовому признаку (типы int64
и float64
): число непропущенных значений, среднее, стандартное отклонение, диапазон, медиану, 0.25 и 0.75 квартили.
df.describe()
Чтобы посмотреть статистику по нечисловым признакам, нужно явно указать интересующие нас типы в параметре include
.
df.describe(include=['object', 'bool'])
State | Area code | International plan | Voice mail plan | Churn | |
---|---|---|---|---|---|
count | 3333 | 3333 | 3333 | 3333 | 3333 |
unique | 51 | 3 | 2 | 2 | 2 |
top | WV | 415 | No | No | False |
freq | 106 | 1655 | 3010 | 2411 | 2850 |
Для категориальных (тип object
) и булевых (тип bool
) признаков можно воспользоваться методом value_counts
. Посмотрим на распределение данных по нашей целевой переменной — Churn
:
df['Churn'].value_counts()
0 2850
1 483
Name: Churn, dtype: int64
2850 пользователей из 3333 — лояльные, значение переменной Churn
у них — 0
.
Посмотрим на распределение пользователей по переменной Area code
. Укажем значение параметра normalize=True
, чтобы посмотреть не абсолютные частоты, а относительные.
df['Area code'].value_counts(normalize=True)
415 0.496550
510 0.252025
408 0.251425
Name: Area code, dtype: float64
Сортировка
DataFrame можно отсортировать по значению какого-нибудь из признаков. В нашем случае, например, по Total day charge
(ascending=False
для сортировки по убыванию):
df.sort_values(by='Total day charge',
ascending=False).head()
Сортировать можно и по группе столбцов:
df.sort_values(by=['Churn', 'Total day charge'],
ascending=[True, False]).head()
спасибо за замечание про устаревший sort makkos
Индексация и извлечение данных
DataFrame можно индексировать по-разному. В связи с этим рассмотрим различные способы индексации и извлечения нужных нам данных из датафрейма на примере простых вопросов.
Для извлечения отдельного столбца можно использовать конструкцию вида DataFrame['Name']
. Воспользуемся этим для ответа на вопрос: какова доля людей нелояльных пользователей в нашем датафрейме?
df['Churn'].mean()
0.14491449144914492
14,5% — довольно плохой показатель для компании, с таким процентом оттока можно и разориться.
Очень удобной является логическая индексация DataFrame по одному столбцу. Выглядит она следующим образом: df[P(df['Name'])]
, где P
— это некоторое логическое условие, проверяемое для каждого элемента столбца Name
. Итогом такой индексации является DataFrame, состоящий только из строк, удовлетворяющих условию P
по столбцу Name
.
Воспользуемся этим для ответа на вопрос: каковы средние значения числовых признаков среди нелояльных пользователей?
df[df['Churn'] == 1].mean()
Account length 102.664596
Number vmail messages 5.115942
Total day minutes 206.914079
Total day calls 101.335404
Total day charge 35.175921
Total eve minutes 212.410145
Total eve calls 100.561077
Total eve charge 18.054969
Total night minutes 205.231677
Total night calls 100.399586
Total night charge 9.235528
Total intl minutes 10.700000
Total intl calls 4.163561
Total intl charge 2.889545
Customer service calls 2.229814
Churn 1.000000
dtype: float64
Скомбинировав предыдущие два вида индексации, ответим на вопрос: сколько в среднем в течение дня разговаривают по телефону нелояльные пользователи?
df[df['Churn'] == 1]['Total day minutes'].mean()
206.91407867494823
Какова максимальная длина международных звонков среди лояльных пользователей (Churn == 0
), не пользующихся услугой международного роуминга ('International plan' == 'No'
)?
df[(df['Churn'] == 0) & (df['International plan'] == 'No')]['Total intl minutes'].max()
18.899999999999999
Датафреймы можно индексировать как по названию столбца или строки, так и по порядковому номеру. Для индексации по названию используется метод loc
, по номеру — iloc
.
В первом случае мы говорим «передай нам значения первых пяти строк в столбцах от State до Area code», а во втором — «передай нам значения первых пяти строк в первых трёх столбцах».
df.loc[0:5, 'State':'Area code']
State | Account length | Area code | |
---|---|---|---|
0 | KS | 128 | 415 |
1 | OH | 107 | 415 |
2 | NJ | 137 | 415 |
3 | OH | 84 | 408 |
4 | OK | 75 | 415 |
5 | AL | 118 | 510 |
df.iloc[0:5, 0:3]
State | Account length | Area code | |
---|---|---|---|
0 | KS | 128 | 415 |
1 | OH | 107 | 415 |
2 | NJ | 137 | 415 |
3 | OH | 84 | 408 |
4 | OK | 75 | 415 |
Если нам нужна первая или последняя строчка датафрейма, пользуемся конструкцией df[:1]
или df[-1:]
:
df[-1:]
Применение функций к ячейкам, столбцам и строкам
Применение функции к каждому столбцу: apply
df.apply(np.max)
State WY
Account length 243
Area code 510
International plan Yes
Voice mail plan Yes
Number vmail messages 51
Total day minutes 350.8
Total day calls 165
Total day charge 59.64
Total eve minutes 363.7
Total eve calls 170
Total eve charge 30.91
Total night minutes 395
Total night calls 175
Total night charge 17.77
Total intl minutes 20
Total intl calls 20
Total intl charge 5.4
Customer service calls 9
Churn True
dtype: object
Метод apply
можно использовать и для того, чтобы применить функцию к каждой строке. Для этого нужно указать axis=1
.
Применение функции к каждой ячейке столбца: map
Например, метод map
можно использовать для замены значений в колонке, передав ему в качестве аргумента словарь вида {old_value: new_value}
:
d = {'No' : False, 'Yes' : True}
df['International plan'] = df['International plan'].map(d)
df.head()
Аналогичную операцию можно провернуть с помощью метода replace
:
df = df.replace({'Voice mail plan': d})
df.head()
Группировка данных
В общем случае группировка данных в Pandas выглядит следующим образом:
df.groupby(by=grouping_columns)[columns_to_show].function()
- К датафрейму применяется метод
groupby
, который разделяет данные поgrouping_columns
– признаку или набору признаков. - Выбираем нужные нам столбцы (
columns_to_show
). - К полученным группам применяется функция или несколько функций.
Группирование данных в зависимости от значения признака Churn
и вывод статистик по трём столбцам в каждой группе.
columns_to_show = ['Total day minutes', 'Total eve minutes', 'Total night minutes']
df.groupby(['Churn'])[columns_to_show].describe(percentiles=[])
Total day minutes | Total eve minutes | Total night minutes | ||
---|---|---|---|---|
Churn | ||||
--- | --- | --- | --- | --- |
0 | count | 2850.000000 | 2850.000000 | 2850.000000 |
mean | 175.175754 | 199.043298 | 200.133193 | |
std | 50.181655 | 50.292175 | 51.105032 | |
min | 0.000000 | 0.000000 | 23.200000 | |
50% | 177.200000 | 199.600000 | 200.250000 | |
max | 315.600000 | 361.800000 | 395.000000 | |
1 | count | 483.000000 | 483.000000 | 483.000000 |
mean | 206.914079 | 212.410145 | 205.231677 | |
std | 68.997792 | 51.728910 | 47.132825 | |
min | 0.000000 | 70.900000 | 47.400000 | |
50% | 217.600000 | 211.300000 | 204.800000 | |
max | 350.800000 | 363.700000 | 354.900000 |
Сделаем то же самое, но немного по-другому, передав в agg
список функций:
columns_to_show = ['Total day minutes', 'Total eve minutes', 'Total night minutes']
df.groupby(['Churn'])[columns_to_show].agg([np.mean, np.std, np.min, np.max])
Total day minutes | Total eve minutes | Total night minutes | ||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|
mean | std | amin | amax | mean | std | amin | amax | mean | std | amin | amax | |
--- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- |
Churn | ||||||||||||
--- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- |
0 | 175.175754 | 50.181655 | 0.0 | 315.6 | 199.043298 | 50.292175 | 0.0 | 361.8 | 200.133193 | 51.105032 | 23.2 | 395.0 |
1 | 206.914079 | 68.997792 | 0.0 | 350.8 | 212.410145 | 51.728910 | 70.9 | 363.7 | 205.231677 | 47.132825 | 47.4 | 354.9 |
Сводные таблицы
Допустим, мы хотим посмотреть, как наблюдения в нашей выборке распределены в контексте двух признаков — Churn
и International plan
. Для этого мы можем построить таблицу сопряженности, воспользовавшись методом crosstab
:
pd.crosstab(df['Churn'], df['International plan'])
International plan | No | Yes |
---|---|---|
Churn | ||
--- | --- | --- |
0 | 2664 | 186 |
1 | 346 | 137 |
pd.crosstab(df['Churn'], df['Voice mail plan'], normalize=True)
Voice mail plan | No | Yes |
---|---|---|
Churn | ||
--- | --- | --- |
0 | 0.602460 | 0.252625 |
1 | 0.120912 | 0.024002 |
Мы видим, что большинство пользователей лояльны и при этом пользуются дополнительными услугами (международного роуминга / голосовой почты).
Продвинутые пользователи Excel наверняка вспомнят о такой фиче, как сводные таблицы (pivot tables). В Pandas за сводные таблицы отвечает метод pivot_table
, который принимает в качестве параметров:
values
– список переменных, по которым требуется рассчитать нужные статистики,index
– список переменных, по которым нужно сгруппировать данные,aggfunc
— то, что нам, собственно, нужно посчитать по группам — сумму, среднее, максимум, минимум или что-то ещё.
Давайте посмотрим среднее число дневных, вечерних и ночных звонков для разных Area code:
df.pivot_table(['Total day calls', 'Total eve calls', 'Total night calls'], ['Area code'], aggfunc='mean').head(10)
Total day calls | Total eve calls | Total night calls | |
---|---|---|---|
Area code | |||
--- | --- | --- | --- |
408 | 100.496420 | 99.788783 | 99.039379 |
415 | 100.576435 | 100.503927 | 100.398187 |
510 | 100.097619 | 99.671429 | 100.601190 |
Преобразование датафреймов
Как и многое другое в Pandas, добавление столбцов в DataFrame осуществимо несколькими способами.
Например, мы хотим посчитать общее количество звонков для всех пользователей. Создадим объект total_calls
типа Series и вставим его в датафрейм:
total_calls = df['Total day calls'] + df['Total eve calls'] + df['Total night calls'] + df['Total intl calls']
df.insert(loc=len(df.columns), column='Total calls', value=total_calls)
# loc - номер столбца, после которого нужно вставить данный Series
# мы указали len(df.columns), чтобы вставить его в самом конце
df.head()
Добавить столбец из имеющихся можно и проще, не создавая промежуточных Series:
df['Total charge'] = df['Total day charge'] + df['Total eve charge'] + df['Total night charge'] + df['Total intl charge']
df.head()
Чтобы удалить столбцы или строки, воспользуйтесь методом drop
, передавая в качестве аргумента нужные индексы и требуемое значение параметра axis
(1
, если удаляете столбцы, и ничего или 0
, если удаляете строки):
df = df.drop(['Total charge', 'Total calls'], axis=1) # избавляемся от созданных только что столбцов
df.drop([1, 2]).head() # а вот так можно удалить строчки