<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Statistics on Ingenboy.inc</title>
    <link>https://blog.ingenboy.com/tags/statistics/</link>
    <description>Recent content in Statistics on Ingenboy.inc</description>
    <image>
      <title>Ingenboy.inc</title>
      <url>https://blog.ingenboy.com/%3Clink%20or%20path%20of%20image%20for%20opengraph,%20twitter-cards%3E</url>
      <link>https://blog.ingenboy.com/%3Clink%20or%20path%20of%20image%20for%20opengraph,%20twitter-cards%3E</link>
    </image>
    <generator>Hugo -- 0.152.2</generator>
    <language>en</language>
    <lastBuildDate>Wed, 24 May 2023 14:28:23 +0900</lastBuildDate>
    <atom:link href="https://blog.ingenboy.com/tags/statistics/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Machine_learning_using_sklearn</title>
      <link>https://blog.ingenboy.com/post/machine_learning_using_sklearn/</link>
      <pubDate>Wed, 24 May 2023 14:28:23 +0900</pubDate>
      <guid>https://blog.ingenboy.com/post/machine_learning_using_sklearn/</guid>
      <description>&lt;h1 id=&#34;まえがき&#34;&gt;まえがき&lt;/h1&gt;
&lt;p&gt;前の記事で、pandasをつかってデータフレームを扱う基礎を学んだね。
めちゃめちゃ便利だということがわかったと思うが、pandasを使ってデータを整形して、最終的に何がしたいかというと、データの分析がしたいんだよね。なぜ分析したいかというと、データから何かしらの情報を得てそれを今後に役立てたいから。
今後への役立て方の一つに予測があるわけだね。そう、回帰だ。深層学習も回帰だよね。深層学習をやるにはTensorFlowっていうライブラリがめっちゃ便利だが、統計的機械学習をやるには、sklearnがある。ということでsklearnを使って統計的機械学習をやっていこう！&lt;/p&gt;
&lt;p&gt;の前に、pandas + sklernをGPUでバク速でやってくれるのがrapidsっていうフレームワークだったよね！実際に大量のデータを使って運用するときは予測にも時間をかけていられないと思うので、GPUを使った運用を考えたほうがいいですね。というか、一回現場で働いてみて、そのあと博士課程で戻ってくるのは全然ありだな。楽しそう。そっちのほうが実際の問題がわかるので有用だと思います。&lt;/p&gt;
&lt;p&gt;はい、そのまま載せます。ちなみに、standard deviationは標準偏差です。&lt;/p&gt;
&lt;h1 id=&#34;1-preperocessing&#34;&gt;1. preperocessing&lt;/h1&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;# 5.1.1
game_sales = pd.read_csv(&amp;#39;sales.csv&amp;#39;, encoding=&amp;#39;CP932&amp;#39;).dropna()
na_sales_0_to_3 = game_sales[&amp;#34;NA_Sales&amp;#34;].between(0.01,3)
game_sales = game_sales[na_sales_0_to_3]
na_sales_reshape = game_sales[&amp;#34;NA_Sales&amp;#34;].values.reshape(-1,1)

from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
scaler.fit(na_sales_reshape)
na_sales_scaled = scaler.transform(na_sales_reshape)
game_sales[&amp;#34;NA_Sales_Std&amp;#34;] = pd.Series(na_sales_scaled.flatten())

print(game_sales[&amp;#34;NA_Sales_Std&amp;#34;].head(10), end=&amp;#39;\n\n&amp;#39;)

# 5.1.2
old_mean_std = game_sales[&amp;#39;NA_Sales&amp;#39;].agg([&amp;#34;mean&amp;#34;,&amp;#34;std&amp;#34;]).round(2)
new_mean_std = game_sales[&amp;#39;NA_Sales_Std&amp;#39;].agg([&amp;#34;mean&amp;#34;,&amp;#34;std&amp;#34;]).round(2)

print(old_mean_std, end=&amp;#39;\n\n&amp;#39;)
print(new_mean_std, end=&amp;#39;\n\n&amp;#39;)

# 5.1.3
fig, axes = plt.subplots(2,1,figsize=(8,6))
sns.boxplot(data=game_sales, x=&amp;#39;NA_Sales&amp;#39;, ax=axes[0])
sns.boxplot(data=game_sales, x=&amp;#39;NA_Sales_Std&amp;#39;,  ax=axes[1])

plt.show()
&lt;/code&gt;&lt;/pre&gt;&lt;h1 id=&#34;linear-regression&#34;&gt;linear regression&lt;/h1&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;# 5.2.1
game_sales = pd.read_csv(&amp;#39;sales.csv&amp;#39;, encoding=&amp;#39;CP932&amp;#39;).dropna()
col_list = [&amp;#39;NA_Sales&amp;#39;, &amp;#39;EU_Sales&amp;#39;, &amp;#39;JP_Sales&amp;#39;, &amp;#39;Other_Sales&amp;#39;, &amp;#39;Global_Sales&amp;#39;,
            &amp;#39;Critic_Count&amp;#39;, &amp;#39;User_Score&amp;#39;, &amp;#39;Critic_Score&amp;#39;]

from sklearn.preprocessing import scale
X = scale(game_sales[col_list].values)
y = scale(game_sales[&amp;#39;User_Count&amp;#39;].values)

from sklearn.linear_model import LinearRegression
reg_model = LinearRegression()
reg_model.fit(X,y)

# 5.2.2
reg_coef = reg_model.coef_
report = [f&amp;#39;{a}\t: {b}&amp;#39; for a, b in zip(col_list, reg_coef)]

for info in report:  print(info)
print(f&amp;#39;Regression Score :{reg_model.score(X,y)}&amp;#39;)

# 5.2.3
fig = sns.regplot(x=&amp;#39;User_Count&amp;#39;, y=&amp;#39;Global_Sales&amp;#39;, data=game_sales)
fig.set(xlim=(100, 4000), ylim=(2, 20))

plt.show()
&lt;/code&gt;&lt;/pre&gt;&lt;h1 id=&#34;logistic-regression&#34;&gt;Logistic Regression&lt;/h1&gt;
&lt;p&gt;ロジスティック回帰分析は、いくつかの要因（説明変数）から「2値の結果（目的変数）」が起こる確率を説明・予測することができる統計手法です。
らしいです。はい、2値しか予測できない、というところがめちゃめちゃポイントですね。しっかりと頭に入れておきましょう。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
