Python+jupyter環境構築(M1 mac対応)
MacへのPython+jupyter環境構築(M1 mac対応)
macにhomebrewをインストール
- homebrewの公式ページにアクセスして
Install Homebrew
のコマンドをターミナルにコピペして実行 - homebrewのPATHを通す(Next stepsで出てくるコマンドを実行するだけ)
"Operation not permitted"に対する対策
なぜかls
がタイトルのエラーで通らなかったので調べてみるとターミナルにアクセス権限振られてないことが問題のよう。
システム環境設定->セキュリティとプライバシー->フルディスクアクセスにターミナル(またはiTerm)を追加することで解消。
pyenvをインストールする前に
pandas
をimportすると下記のエラーが出る。pyenv経由でpythonをインストールした場合に発生する模様。
pythonをインストールした後に気づいたがpythonの再インストール必要なため、pythonインストール前に対処。
UserWarning: Could not import the lzma module. Your installed Python is incomplete. Attempting to use lzma compression will result in a RuntimeError.
対処方法はxz
をインストールする。
$ bash install xz
pyenvのインストール
# pyenvのインストール $ brew install pyenv # zshの設定 $ echo 'eval "$(pyenv init --path)"' >> ~/.zshrc # pyenvのバージョン確認 $ pyenv -v # pyenvでインストール可能なpythonのバージョン一覧の取得 $ pyenv install -l # pythonのインストール(今回の設定では3.10.0をインストール) $ pyenv install 3.10.0 # pyenvでインストールした環境をディレクトリ下に適用 $ pyenv local 3.10.0 # pythonのバージョン確認 $ python -v
xz
をインストール後の再インストール時は下記を実施(事前にxzインストールしたときに必要になるかは未検証)
$ prefix=$(brew --prefix) $ export LDFLAGS="-L$prefix/opt/xz/lib $LDFLAGS" $ export CPPFLAGS="-I$prefix/opt/xz/include $CPPFLAGS" $ export PKG_CONFIG_PATH="$prefix/opt/xz/lib/pkgconfig:$PKG_CONFIG_PATH" $ PYTHON_CONFIGURE_OPTS="--enable-shared" pyenv install 3.10.0
poetryのインストール
公式ドキュメントのDocumentaion->Installation
の下記コマンドを実行
# poetryのインストール curl -sSL https://raw.githubusercontent.com/python-poetry/poetry/master/get-poetry.py | python - # 現在のshellに設定を反映 source $HOME/.poetry/env
poetryを用いたpythonモジュールインストール
$ poetry init $ poetry add jupyter jupyterlab pandas tqdm $ poetry run jupyter lab
参考文献
情報検索における潜在意味解析
前回はユーザーベースの協調型推薦を実装したのですが、このようなシンプルな協調フィルタリングには大きな問題があります。 それはスパースな行列に対してうまくレコメンドができないことです。システムが巨大になるほど、ユーザーが利用していないアイテムが増えたり、 あまりシステムを利用しないユーザーが増えていくため、行列が非常にスパースになっていきます。
https://leisurelab.hatenablog.com/entry/2019/02/21/073842leisurelab.hatenablog.com
潜在的意味解析の意義
協調的型推薦は主にメモリベースとモデルベースの2つに分類されます。
メモリベース ユーザーが評価した評価値をデータベースとして保持した評価値データベースをすべてのメモリの中に格納し、推薦を行うために直接用いる手法。
モデルベース 生のデータをあらかじめオフラインで処理して、推薦実行時にはオフラインで処理した前処理結果や学習済みのモデルを評価値予測のために使用する手法。
理論上、メモリベースのように存在するデータをすべて用いるほうが正確ですが、データの規模が大きくなるにつれて計算量と計算コストの問題が出てくると考えられます。
こういった実務的な要請があるために、モデルベース推薦が注目されてきたと背景があります。
モデルベース推薦において、潜在的な"意味"を表現する因子を利用するという考えが一般的です。 例えば、Google検索などの情報検索においてユーザーが入力したクエリに対して、文書とクエリそれぞれに含まれる単語の重複によって評価するという単純な手法を利用することはもちろん可能です。 しかし、この手法には問題があって"車"や"自動車"などの同義語や、"モデル"などに複数の意味を表しうる多義語が含まれる場合、うまく機能しません。
この問題を解決するために、潜在的意味解析(latent semantic analysis; LSA)という技術が発展してきました。 LSAは、すべての文書の背後に意味の構造が存在すると考え、これを行列の形に表現して、分解することが特徴です。 行列として表現することにより、多変量海鮮の考えを適用でき、文書や語句を数学的・統計的に分析することが可能になります。 また、LSAでは表現としては豊かすぎる語句・文書を、行列分解という形で除外し、複数の語句の背後に共通して存在する意味構造を抽出することを考えます。 これにより、大規模な文書ベクトルの行列に対して単語間の高い相関や共起語を1つの因子として捉えて、より小さな階数(ランク)の行列による近似に縮約することで、 生データの情報をできるだけ損なわずに、規模の問題を解決しようとしています。
LSAで使われる行列分解のうち、特異値分解(singular value decomposition; SVD)について考えてみたいと思います。
特異値分解(SVD)
特異値分解の概要
特異値分解は簡略的には以下のように表現されます。 これは与えられた行列Mを以下のように3つの行列に分割している操作です。
は左特異ベクトル、は右得意ベクトル、の対角成分は特異値といいます。
仮に行列がの行列でランクがの場合、行列には冗長な要素が含まれているといえます。 以下のように、上の式を変換することで行列をr次元データで表現できるようになります。
この分解で重要なポイントは、n次元行列をr次元行列に変換できるだけでなく、 ユークリッドノルムの大きなベクトル、つまり行列を構成する上で影響力の強いベクトルから順に列ベクトルに割り当てられることです。
SVDを使った次元削減
上述したように、は対角行列なので、対角要素が大きければ、行列に与える影響も大きくなります。 そこで上位k個のを抽出することで、次元を削減します。この手法は低ランク近似と呼ばれます。 小さな特異値から削減することで、オリジナルの行列と低ランク近似した行列の各要素の2乗誤差が最小になることが知られています。
Pythonでの実装
情報検索の例
以下のデータベースにおいてSVDを試してみます。 例は以下のサイトから引用しています。
drive | automobile | car | play | music | |
---|---|---|---|---|---|
document1 | 2 | 3 | 0 | 0 | 0 |
document2 | 2 | 0 | 2 | 0 | 0 |
document3 | 0 | 0 | 0 | 2 | 2 |
document4 | 0 | 0 | 0 | 3 | 1 |
この例だとdocument1にはcarの出現頻度が0であり、この文書でcarを検索してクエリと文書の重複を見ても、重複がないためdocument1を見つけることはできないということが言えます。 同様に、automobileで検索してもdocument2を得ることはできないということが言えます。 しかし、carとautomobileは同義語だと言えるため、検索で見つけられるようになる必要があると考えられます。 そこで、特異値分解(SVD)を用いることで、潜在的共起性を抽出します。
import numpy as np import pandas as pd arr = np.array([[2, 3, 0, 0, 0], [2, 0, 2, 0, 0], [0, 0, 0, 2, 2], [0, 0, 0, 3, 1]])
numpyを用いて特異値分解を行います。
u, sigma, v = np.linalg.svd(arr, full_matrices=True)
上位k個を抽出し低ランク近似を行います。 最後は結果を解釈しやすいように、小数点第3位で四捨五入しています。
k = 2 u2 = u[:, :k] sigma2 = sigma[:k] v2 = v[:k, :] arr2 = np.round(np.dot(np.dot(u2, np.diag(sigma2)), v2), 2)
これによって得られた結果を以下に示します。
drive | automobile | car | play | music | |
---|---|---|---|---|---|
document1 | 2.38 | 2.29 | 0.85 | 0 | 0 |
document2 | 1.32 | 1.27 | 0.47 | 0 | 0 |
document3 | 0 | 0 | 0 | 2.36 | 1.37 |
document4 | 0 | 0 | 0 | 2.68 | 1.55 |
以上の結果より、document1とdocument2ともにautomobileとcarの要素が正の値を取っており、 それぞれが検索として潜在的共起性を抽出できていることがわかります。
推薦システムの例
追記予定。
まとめ
次元削減に関しては、主成分分析(PCA)や非負値行列因子分解(NMF)などもあり、今後これらも比較していきたいです。 何か間違いなどを発見されましたら、コメントいただけるとありがたいです。
- 作者: Dietmar Jannach,Markus Zanker,Alexander Felfernig,Gerhard Friedrich,田中克己,角谷和俊
- 出版社/メーカー: 共立出版
- 発売日: 2012/06/22
- メディア: 単行本
- 購入: 1人 クリック: 15回
- この商品を含むブログ (1件) を見る
ユーザーベース協調フィルタリングを実装してみた
amazonやNetflixで使われているレコメンドシステムに突然興味を持ったので、推薦システムの勉強をしたのでpythonで実装してみました。
勉強のアウトプットなので、間違っていたらご指摘いただけると幸いです。
推薦システムとは
amazonでモノを買ったりすると、「この商品をチェックした人はこんな商品もチェックしています」みたいな推薦をしてくれますよね。 まさにあれが推薦システムで、特定のユーザーに対してどのモノを推薦すべきかを決定するシステムのことを推薦システムといいます。 その中でも、すべてのユーザーの嗜好に応じて異なる推薦のリストを提示するシステムが個人化推薦といいます。
種類としては、
- 協調型推薦
- 内容ベース型推薦
- 知識型ベース型
- 複数のアプローチを組み合わせたハイブリッド型
があります。
今回は、協調型推薦の中のユーザーに基づいた推薦が対象です。
協調型推薦
協調型推薦は、 過去に同じ興味を共有したユーザーは将来的にも同じような興味をもつだろう 仮定しています。
なので、ユーザーAとユーザーBの購入履歴が似ていて、ユーザーBがまだ知らないモノをユーザーAが最近購入したとすると、 これをユーザーBに提案することは合理的だといえます。
ユーザーがお互いに示し合わせたわけではなく暗黙的に協調して、膨大なモノの集合から最も有望なモノをフィルタリングするため、 この技術を協調フィルタリングと呼んでいます。
協調型推薦を考える上で、以下の問いに答える必要がでてきます。
- 類似したユーザーというけれど類似したユーザーを膨大なユーザーの中から探し出すのか?
- そもそも類似ってなに?
- 類似ってどうやって測る?
- 新規のユーザーでまだシステムの利用履歴がないけどどう対処する?
- ユーザーに関して利用できるデータが少ない場合はどうする?
- 類似ユーザーを探す以外に特定のユーザーがあるモノを好きかどうかを予測できる手法は存在する?
ユーザーベース推薦
ユーザーベース推薦のシステムのアイディアは非常にシンプルで、
- 対象ユーザーの評価データ入力して、過去の嗜好と似ている他のユーザー(=ピアユーザー)を特定する
- 対象ユーザーがまだ見ていないモノに対する評価をピアユーザーの評価を用いて予測する
ユーザーベース推薦は以下の2つの仮説に基づいています。
- ユーザーが過去に似た嗜好をもっているなら、その嗜好は将来においても似ている
- ユーザーの好みは長い間一貫している
実際この辺りの仮定は少し無理があるので、amazonとかは別の手法を用いているみたいです。この辺りはまだ知識不足なので、よくわかってません笑
このあたりを基礎知識として、ユーザーベース推薦を実装してみました。
使用するデータセット
今回利用するのはMovieLensデータセットです。 https://grouplens.org/datasets/movielens/
MovieLensデータセットは推薦システムの開発やベンチマークとしてミネソタ大学の研究グループが公開してくれています。ありがたいですね。
今回はMovieLens 100K Datasetを使用します。
ベンチマーク(参考コード)
推薦システムの実装で使われていることが多いので、他の人のコードを眺めながらできるのは非常にありがたいです。 ちなみに以下のgithubのコードをベンチマークとして実装しています。
今回の実装はMovieLens100kに対するユーザーベース協調フィルタリングになるので、 precisionで19.69%を目標とすることになります。
実装
データの読み込み
データは手元にダウンロードして、使用しています。 ua.baseがtrain dataで、ua.testがtest dataとなっているみたいです。
import numpy as np import pandas as pd train = pd.read_csv('../data/input/ml-100k/ua.base', names=["user_id", "item_id", "rating", "timestamp"], sep='\t') test = pd.read_csv('../data/input/ml-100k/ua.test', names=['user_id', 'item_id', 'rating', 'timestamp'], sep='\t')
データとしては以下のような内容です。 データの全容としては、943ユーザーによる1682アイテムに対して1~5の評価をしているレビューサイトのデータという感じです。
amazonをイメージしてもらえると理解の助けになると思うのですが、全員がすべてのアイテムのレビューをしているわけではないので、非常に疎なデータセットになっています。
user_id | item_id | rating | timestamp | |
---|---|---|---|---|
0 | 186 | 302 | 3 | 891717742 |
1 | 22 | 377 | 1 | 878887116 |
2 | 244 | 51 | 2 | 880606923 |
3 | 166 | 346 | 1 | 886397596 |
4 | 298 | 474 | 4 | 884182806 |
- 類似したユーザーというけれど類似したユーザーを膨大なユーザーの中から探し出すのか?
→今回はすべてのユーザーと総当たりで類以度を計算して、上位何人かを類似したユーザーと定義します。
- そもそも類似ってなに?
→類以度という概念を導入してユーザー間の類似を表現します。
- 類似ってどうやって測る?
→類似度にも様々な表現方法があるのですが、今回はコサイン類以度を採用します。
- 新規のユーザーでまだシステムの利用履歴がないけどどう対処する?
- ユーザーに関して利用できるデータが少ない場合はどうする?
- 類似ユーザーを探す以外に特定のユーザーがあるモノを好きかどうかを予測できる手法は存在する?
→上の3つに関しては今回は範囲外としてまた別のタイミングで扱うことにします。
とりあえず今回の記事で扱う話を整理したので、それぞれに注目して行きたいと思います。
コサイン類以度
今回類以度として採用したコサイン類以度は2つのベクトルを用いて以下のように定式化できます。
コサイン類以度は、0から1の値を取りベクトル同士の成す角度の近さを表現しています。
推薦システムの文脈でコサイン類以度を考える場合には、ユーザーが異なることを気をつける必要があります。例えば、ユーザーAは甘めに評価する一方で、ユーザーBは辛めに評価する傾向にあるといったところを考慮する必要があるということです。 これは、ユーザーの評価値の平均をそのユーザーの評価から引くことで解決でき、これを調整コサイン類以度といいます。
実装としては、以下のように実装しています。下のmean_adjustment=Trueとすると調整コサイン類以度になります。
def cosine_similarity(v1, v2, mean_adjustment=False): if mean_adjustment: v1 = v1 - np.mean(v1) v2 = v2 - np.mean(v2) return np.dot(v1, v2) / (np.linalg.norm(v1) * np.linalg.norm(v2))
下準備
ここではindexがuser_id、columnsがitem_idになるような評価値行列を作成しています。 ユーザーが今回評価をつけていないところは0としました。調べてみると、Rの推薦システムのライブラリrecommenderlabも欠損は0としているみたいなので、とりあえずこれで進めていきます。
train_rating_mat = pd.pivot_table(train, index='user_id', columns='item_id', values='rating') train_rating_mat.fillna(0, inplace=True)
メインの実装部
以下がメインの実装部になっています。 user1には参考にしたコードでテスト用に5人選抜していたので、そのまま流用しています。
手順としては、
- user1に対して全ユーザーのコサイン類以度を算出
- 算出されたコサイン類以度の上位10人を選抜
- 上位10人の近接性とuser1の平均評価値を使ってuser1のアイテムに対する評価値を予測
- 予測結果からトップ10を用いてレコメンドリストを作成
- 実際にuser1が購入したリストと比較してprecisionで評価
これを実行するとprecisionが22%になり、少し高いような気がしますが参考にしたコード付近のprecisionになりました。
# use five people for evaluation of recommend system for user1_id in tqdm([1, 100, 233, 666, 888]): cos_sim_list = [] for user2_index in range(rating_arr.shape[1]): user1 = rating_arr[:, user1_id-1][:, np.newaxis] user2 = rating_arr[:, user2_index][:, np.newaxis] two_users_mat = np.concatenate((user1, user2), axis=1) two_users_mat = two_users_mat[~np.isnan(two_users_mat).any(axis=1), :] # calucalate cosine similarity between user1 and user2 cos_sim = cosine_similarity(two_users_mat[:, 0], two_users_mat[:, 1], mean_adjustment=True) cos_sim_list.append(cos_sim) cos_sim_mat = pd.Series(cos_sim_list, index=[i for i in range(1, rating_arr.shape[1] + 1)]) # use top 10 users of cosine similarity top_n = 10 top_n_sim = cos_sim_mat.sort_values(ascending=False)[1:top_n+1] top_n_users = top_n_sim.index # test data of user1 test_user1 = test[test['user_id'] == user1_id].sort_values(by='rating', ascending=False) # calculate the prediction of user1 user1_not_rating = train_rating_mat.iloc[user1_id-1, :] user1_not_rating = pd.Series(np.logical_not(user1_not_rating), index=user1_not_rating.index) mean_r = train_rating_mat.replace(0, np.nan).mean(axis=1).drop(labels=[user1_id]) mean_r = mean_r[mean_r.index.isin(top_n_users)] not_user1_rating_item = train[train.index.isin(user1_not_rating[user1_not_rating == 1].index)] not_user1_rating_item = not_user1_rating_item[not_user1_rating_item['user_id'].isin(top_n_users)] not_user1_rating_item.reset_index(inplace=True) ra = train_rating_mat.replace(0, np.nan).iloc[0, :].mean() bottom_value = np.sum(top_n_sim) item_id_list = [] pred_list = [] hits = 0 # recommend top 10 item for item_id in not_user1_rating_item['item_id'].unique(): rating_by_item = not_user1_rating_item[not_user1_rating_item['item_id'] == item_id] top_value = np.sum([top_n_sim[uid] * (rating_by_item[rating_by_item['user_id'] == uid]['rating'].values - mean_r[uid]) for uid in rating_by_item['user_id'].values]) pred = ra + top_value / bottom_value item_id_list.append(item_id) pred_list.append(pred) # check the precision of recommend list pred_dict = {'item_id': item_id_list, 'pred': pred_list} pred_df = pd.DataFrame.from_dict(pred_dict).sort_values(by='pred', ascending=False).reset_index(drop=True) recommend_list = pred_df[:10]['item_id'].values purchase_list = test_user1['item_id'].values for item_id in recommend_list: if item_id in purchase_list: hits += 1 precision_ = hits / 10.0 precision_list.append(precision_) print('precision: {:.2f}'.format(sum(precision_list) / len(precision_list)))
最後に
コードは以下においてあります。
とりあえずユーザーベースは理解できた気がするので次はアイテムベースに挑戦します。 間違いなどがあればコメントに書いていただけると幸いです。
参考にした以下の文献に感謝です。
- 作者: Dietmar Jannach,Markus Zanker,Alexander Felfernig,Gerhard Friedrich,田中克己,角谷和俊
- 出版社/メーカー: 共立出版
- 発売日: 2012/06/22
- メディア: 単行本
- 購入: 1人 クリック: 15回
- この商品を含むブログ (1件) を見る
pandasを用いてフラグがついている列が先頭になるように行ごとにシフトする
やりたい処理は、すべての行でフラグ1が先頭にくるようにシフトしたい。
うまいやり方かどうかわからないけど、一応うまくいっているような気がする。
サンプルコード
import numpy as np from numpy import nan import pandas as pd import warnings warnings.filterwarnings("ignore") # 実行に関係のない警告を非表示
# 左からゼロパディング columns_list = ["a_{0:02d}".format(i) for i in range(0, 12)]
value_arr = np.array([[nan, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [nan, nan, 1, 0, 0, nan, nan, nan, nan, nan, nan, nan], [nan, nan, nan, 1, 0, 0, 0, nan, nan, nan, nan, nan] ])
時系列のデータを想定したDataFrameを作成。
フラグが1になるカラムが行ごとにバラバラなので、すべての行で先頭のカラムが1になるようにシフトしたい。
df = pd.DataFrame(value_arr, columns=columns_list) df
a_00 | a_01 | a_02 | a_03 | a_04 | a_05 | a_06 | a_07 | a_08 | a_09 | a_10 | a_11 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | NaN | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
1 | NaN | NaN | 1.0 | 0.0 | 0.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
2 | NaN | NaN | NaN | 1.0 | 0.0 | 0.0 | 0.0 | NaN | NaN | NaN | NaN | NaN |
行ごとに処理を行う。
各行ごとにフラグ1がくるインデックスを取得して、その分だけ左方向にシフトする(作成されるのはSeries)
作成されたseriesを行方向に結合する
結合してできたDataFrameをtransposeして元のDataframeと形を揃える。
se_concat = pd.concat([df.ix[i].shift(val) for i, val in enumerate([-np.where(value_arr == 1)[1][j] for j in range(len(df))])], axis=1) se_concat.T
a_00 | a_01 | a_02 | a_03 | a_04 | a_05 | a_06 | a_07 | a_08 | a_09 | a_10 | a_11 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | NaN |
1 | 1.0 | 0.0 | 0.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
2 | 1.0 | 0.0 | 0.0 | 0.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
参考にした書籍・サイト
Pythonによるデータ分析入門 第2版 ―NumPy、pandasを使ったデータ処理
- 作者: Wes McKinney,瀬戸山雅人,小林儀匡,滝口開資
- 出版社/メーカー: オライリージャパン
- 発売日: 2018/07/26
- メディア: 単行本(ソフトカバー)
- この商品を含むブログを見る
numpyのarrayで複数の要素が配列内に存在するか判定する
numpy.arrayで複数の要素をリストで渡して、真偽値行列を作成してみる。
使うのは、numpy.in1dで、 指定したarray-likeな要素がある配列内に存在するかどうかを判定して、1次元の真偽値行列を返してくれる。
配列の形を合わせたいなら、reshape(arr.shape)
で形を合わせることができる。
In [1]: import numpy as np In [2]: arr = np.array([[1, 3, 5], [2, 3, 4], [2, 3, 3]]) In [3]: np.in1d(arr, [1, 3, 5]) Out[3]: array([ True, True, True, False, True, False, False, True, True]) In [4]: np.in1d(arr, [1, 3, 5]).reshape(arr.shape) Out[4]: array([[ True, True, True], [False, True, False], [False, True, True]])
Pythonによるデータ分析入門 第2版 ―NumPy、pandasを使ったデータ処理
- 作者: Wes McKinney,瀬戸山雅人,小林儀匡,滝口開資
- 出版社/メーカー: オライリージャパン
- 発売日: 2018/07/26
- メディア: 単行本(ソフトカバー)
- この商品を含むブログを見る
LightGBMをインストールする
LightGBMをubuntu18.04にインストールします。
LightGBMとは
Microsoftが開発した勾配ブースティング(Gradient Boosting)のライブラリ。勾配ブースティングのライブラリには、他にXGBoostとかも割と有名なのは知っていましたが、LightGBMは知りませんでした。知ったきっかけは、Kaggleで適当に興味あるコンペのKernelを読み漁っているとよく登場してたため調べてみる気になりました。
勾配ブースティング
そもそもブースティングは、複数の弱学習器を用意して、それぞれの学習器を直列接続するイメージの手法。前の弱学習器で学習した内容を現在の弱学習器に継承しながら学習を進めていきます。
勾配ブースティングは、各ステップごとの弱学習器のでの損失関数の最小化問題に対して勾配降下法を用いるのが由来です。
勾配ブースティングの弱学習器では、決定木が採用されることが多いです。
LightGBMのインストール
LightGBMの公式の通りインストールしていくだけですが、一応手順を示します。 下準備としてsetuptoolsは準備しておきましょう。 今回は、Github経由でのインストールを採用しました。
Cmakeのインストール
Cmakeはソフトウェアのビルド自動化ツールで、Windows,mac, linuxとクロスプラットホームで使えます。 LightGBMのインストール時に必要なのでインストールします。
$ cd ~/Downloads $ wget https://cmake.org/files/v3.12/cmake-3.12.2.tar.gz $ tar xvf cmake-3.12.2.tar.gz $ cd cmake-3.12.2 $ ./configure $ make $ sudo make install # インストールできているか確認 $ cmake Usage cmake [options] <path-to-source> cmake [options] <path-to-existing-build> Specify a source directory to (re-)generate a build system for it in the current working directory. Specify an existing build directory to re-generate its build system. Run 'cmake --help' for more information.
cmakeして上の表示がされていれば、インストールできています。 うまく行かない場合は、C++のコンパイラがない可能性があるのでgccとかを入れる必要があるかも?
LightGBMのインストール
$ git clone --recursive https://github.com/Microsoft/LightGBM.git $ cd LightGBM/python-package $ python setup.py install # grepしてインストールできているか確認 $ pip list --format=columns | grep -i lightgbm lightgbm 2.2.1
上のように、lightgbm 2.2.1 のようにversion表示されていればインストール成功です。
参考にしたサイト
- 作者: 平井有三
- 出版社/メーカー: 森北出版
- 発売日: 2012/07/31
- メディア: 単行本(ソフトカバー)
- 購入: 1人 クリック: 7回
- この商品を含むブログ (5件) を見る
2つのnumpy arrayからDataFrameを作る
2つの同じ長さのnumpy arrayを用いてそれらを列に持つpandasのDataFrameを作成します。
In [1]: import numpy as np In [2]: import pandas as pd In [3]: arr1 = np.array(["a", "b", "c", "d"]) In [4]: arr2 = np.array([1, 2, 3, 4]) In [5]: dict_ = dict(zip(arr1, arr2)) In [6]: df = pd.DataFrame(list(dict_.items()), columns=["col1", "col2"]) In [7]: df Out[7]: col1 col2 0 a 1 1 b 2 2 c 3 3 d 4
手順は、
- 1つのarrayをkey、もう一つのarrayをvalueとする辞書を作成
- 作成した辞書をlist.items()でkeyとvalueのarrayのタプルを1つの値ごとに格納したリストに変換
- 2.で作成したリストをDataFrameに変換
という流れです。
参考にしたサイトは以下のサイトです。
- 作者: Bill Lubanovic,斎藤康毅,長尾高弘
- 出版社/メーカー: オライリージャパン
- 発売日: 2015/12/01
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (3件) を見る