※この記事にはプロモーションが含まれています。

18. Pandasでデータ分析

Pandas DataFrameの抽出(階層型インデックス(MultiIndex))

更新日:

前章に引き続きDataFrameに格納されたデータを取得する方法を確認します。この章では、複数のインデックスが設定されたDataFrameに対しての検索方法を確認します。これらのインデックスは階層型インデックス(MultiIndex)と呼ばれています。

 

動画教材紹介私(清水 義孝)が作成したコース「Pythonによるビジネスに役立つWebスクレイピング」(Udemyへのリンク)が発売中!
発売数8,500本突破を記念して、今だけ期間限定で87%オフの大セール中!!!

CSVファイルの読み込み

前回と同様、まず初めにCSVファイルを読み込みます。今回利用するのは、売上の明細情報「T_Sales_Item.csv」で、商品、数量、単価、金額などの情報が格納されています。
 
この明細情報には、Sales_Noとして、売上伝票毎にAから始まる番号の連番が、Sales_Item_Noには、売上伝票毎の明細の番号として1から始まる番号の連番が、Product_IDには商品IDが、Qtyには売上数量が、Amountには売上金額が、Taxには税額が設定されています。商品IDは、別途マスタデータがあり、IDと共に名称などの情報を持っています。

Sales_NoSales_Item_NoProduct_IDQtyAmountTax
A0011P00117000560
A0012P00227700616
A0021P00316800544
A0022P0064350002800
A0031P0041310002480
A0032P0053300002400
A0041P00257700616
A0042P00316800544
A0043P0081420003360
A0044P0052300002400

 
最初にCSVファイル「T_Sales_Item」からデータを読み込みます。(※CSVファイルは左のリンクから取得してください。)その際にインデックスも指定します。
 
CSVファイルの読み込みは、前の章と同様にpd.read_csvを利用します。引数は、読み込むファイル名「T_Sales_Item.csv」と、インデックスに列「Sales_No」「Sales_Item_No」を指定します。この読み込んだデータをDataFrameとして変数df_sales_itemに格納します。

In [1]: import pandas as pd
...: df_sales_item = pd.read_csv("T_Sales_Item.csv",
...:                                            index_col=["Sales_No","Sales_Item_No"])

 
そして次にDataFrameを格納した変数df_sales_itemを入力し、格納されているデータを確認します。headを利用し、最初の10行だけを表示してみましょう。

In [2]: df_sales_item.head(10)
Out[2]:

画面上部に表示されているのが列名で、インデックスに指定された列「Sales_No」 「Sales_Item_No」は一段下がって表示されています。
 
 

階層型インデックス(MultiIndex)から指定行・指定列の抽出

階層型インデックス(multiindex)を持つDataFrameからのデータ抽出は、行番号、インデックスや列名を指定して行なうことができます。但し、複数の行と列を同時に指定してデータの抽出ができないなどの制限がありますので、後述するloc、ilocを利用することも多いです。
 
まずは列名を指定して、列”Product_ID”の情報を表示してみましょう。

In [3]: df_sales_item["Product_ID"].head()
Out[3]:

 
次に1つ目のインデックス”Sales_No”の範囲を指定し、A002~A004行までの全ての列の情報を抽出します。これは前の章の単一インデックスと全く同じ方法で指定できます。

In [4]: df_sales_item["A002":"A004"]
Out[4]:

 
今度は2つ目のインデックスまで合わせて範囲を指定する場合、タプルを利用します。例えば、Sales_NOがA002、Sales_Item_Noが2の行から、Sales_NOがA004、Sales_Item_Noが3の行までを範囲指定する場合、次のように記述します。

In [5]: df_sales_item[("A002",2):("A004",3)]
Out[5]:

 
また行番号を指定して特定の範囲の行を抽出することもできます。3行目のSales_NOがA002、Sales_Item_Noが1の行から、6行目のSales_NOがA004、Sales_Item_Noが1の行までを指定してみます。行番号は、1行目は0から始まります。また範囲の終了値に指定された値は含まれません。
 
従って3行目から6行目までを指定する場合、[2:6]となります。つまり、1行目は0から始まりますので3行目は2となり、範囲の終了値に指定された値は含まれませんので、6行目までを指定したい場合、7行目の6を指定する必要があります。

In [6]: df_sales_item[2:6]
Out[6]:

 
 

動画教材紹介私(清水 義孝)が作成したコース「Pythonによるビジネスに役立つWebスクレイピング」(Udemyへのリンク)が発売中!
発売数8,500本突破を記念して、今だけ期間限定で87%オフの大セール中!!!

階層型インデックス(MultiIndex)からlocによる行・列名を指定しての抽出

単一インデックスの時と同様、階層型インデックス(MultiIndex)でも、locを利用してDataFrameからインデックス、列名を指定してデータを抽出することができます。またスライシングも使うことができます。
 
まずはインデックスを指定してデータの抽出をしてみましょう。A001~A003行のデータを抽出する場合、次のようにlocに引数"A001":"A003"を渡します。

In [7]: df_sales_item.loc["A001":"A003"]
Out[7]:

 
2つ目のインデックスまで合わせて範囲を指定するにはタプルを利用します。次の例では、Sales_NOがA002、Sales_Item_Noが2の行から、Sales_NOがA004、Sales_Item_Noが4の行までを範囲指定しています。

In [8]: df_sales_item.loc[("A002",2):("A004",4)]
Out[8]:

 
次に列を指定してデータを抽出します。列”Product_ID”~”Amount”までの列を指定して、全ての行の値を取得する場合、行の指定を”:”(全行)、列の指定を”Product_ID”:”Amount”とします。ここではheadを利用して、最初の5行だけを表示します。

In [9]: df_sales_item.loc[:,"Product_ID":"Amount"].head()
Out[9]:

 
今度は前の2つの例を組み合わせて、行はSales_NOがA002、Sales_Item_Noが2の行から、Sales_NOがA004、Sales_Item_Noが4の行までを範囲指定し、列は”Product_ID”~”Amount”までの範囲を指定して出力してみましょう。

In [10]: df_sales_item.loc[("A002",2):("A004",4), "Product_ID":"Amount"]
Out[10]:

 
範囲指定だけではなく、行と列ともに個別に抽出する項目を指定することもできます。行はA002とA004行目を抽出し、列は”Product_ID”、 "Amount"のデータを抽出します。特定の列を指定したい場合は、[“Product_ID”,”Amount”]というように、[ ]括弧の中に指定したい列をカンマを挟んで記述します。

In [11]: df_sales_item.loc[["A002","A004"], ["Product_ID","Amount"]]
Out[11]:

 
 
関連記事です。
Pandasの中心となるDataFrame(データフレーム)については、次の記事で詳しく解説しております。

 

 
 
 
最後に...


Pythonの学習においては、実際に様々なプログラムを書いて試していくことが非常に重要です。Pythonについて、さらに詳しく学ばれたい方は、以下の私のUdemy講座をご検討いただければ幸いです。


Pythonを用いて世界中のWebサイトから自動的にデータ収集する方法を、基礎からていねいに学ぶことができます。Pythonを初めて学ばれた方も、最初に取り組みやすい内容になっています。


>> Pythonによるビジネスに役立つWebスクレイピング
発売数8,500本突破を記念して大セール中!期間限定になりますのでお早めに。
Pythonによるビジネスに役立つWebスクレイピング(BeautifulSoup、Selenium、Requests)講座の画面

既に8,500名以上の方に受講頂き、大変好評です。またコースに満足いただけない場合でも、30日返金保証があるので安心です。

期間限定の割引クーポンは、こちらから!
>> Pythonによるビジネスに役立つWebスクレイピング
   
   





-18. Pandasでデータ分析

Copyright© ビジPy , 2024 All Rights Reserved.