フォーラム - neorail.jp R16
発行:2018/9/13
更新:2022/7/20

[3676]

【正宗の名刀で速射砲と立合をするような奇観を呈出】発生学から出立するディープラーニング(仮)【社会調査工房オンラインあり】


「ディープラーニング」=「主成分回帰(PCR)」×「ループのある決定木」
(実験的な使用に留めるべきです)
(データセットを検めます)
「Frechet Inception Distance(FID)」=「分布と分布の距離」
「あのツタに覆われているセイボの木」「黒いキノコと藻が多いセイボの木」「リボンは体の一部」
「Illustration2vec」=「ベクトル空間モデル」
(評価実験を検めます)
「わたしたちがAIと呼びたいもの」=「主成分分析(PCA)」+「ファジィC-means(FCM)」!?

(約77000字)

 事実上の「ゼロから読み解くディープラーニング(仮)」でございます。おぬしディープじゃのう。(棒読み)


 この記事は随時、加筆や修正を行なう可能性があります。引用はお控えください。


・(再掲)本日は青空文庫なり。「夏目漱石」を読む絶好の日よりなり。
 https://www.aozora.gr.jp/cards/000148/files/1102_14956.html

[3640]
 > なんと夏目漱石せんせいがシミュレーションの何たるやを説いておられる。

 > 夏目漱石せんせいが分類を語っておられる。

 > > つまり角があるから牛で、鱗があるから魚だと云う代りに、発生学から出立して、どんな具合に牛ができ、どんな具合に魚ができるかを究めた方が、何だか事件が落着したような心持が致します。

 > > ついには正宗の名刀で速射砲と立合をするような奇観を呈出するかも知れません。

 チョコミント!! …じゃなくて、わたしたちはこのあと「小平邦彦」を読む予定になっています。(棒読み)

[3670]
 > > これも
 > > いれるの!!

 > > ぜったいに
 > > やだ

 > > > どないしよ
 > > > どないしよ

 > > CD-ROMをパソコンへ挿入し、CD-ROMから起動して使用します。

 > わあぃCD-ROMドライブを買ってこなくちゃ!(棒読み)

 https://121ware.com/navigate/enjoy/prevent/useful/20080219/index03.html
 https://121ware.com/navigate/enjoy/prevent/useful/20080219/images/img_05_01_01.jpg

 > お使いのパソコンの「CD/DVDドライブ」のトレイの前面ににマークが刻印されているので、そのマークを確認してください。マークによって、使うことのできるディスクが異なります。複数のマークがあった場合はそれぞれのマークに対応したメディアをすべて使うことができます。

※「前面にに」は原文ママ。

・本日はあらかじめ.tar.gzファイルを“解凍”いただきます。
 https://neorail.jp/forum/uploads/WebDNN_characters_json.tar.gz

 つごう45個のJSONファイル(「a」「b」「c」=後述)が解凍されますので1個ずつ下記のサービスに読み込ませるのですよ。…えー!!(※表現は演出です。)…じゃなくて、何でも「解凍」と称するのは『Windowsな文化圏!』ではなかったかという認識のもと(大巾に中略)結局、何でも「解凍」というんですか。「.tar.gzファイル」でも「解凍」でいいんですかねぇ。わあぃフローズン。日本初上陸のフローズン…って、いつのはなしですかぁ。いろいろなフローズンが順番に日本初上陸してきているよね。うそじゃないもん★日本初上陸だもん。(※表現は演出です。)

※「e」「f」「k」「m」には生成結果のPNGも含まれてございます(=後述)。実際にJSONを読み込ませて生成してみて、PNGがレタッチなどしていないAIの出力そのものであることを確かめてください。


★「ディープラーニング」=「主成分回帰(PCR)」×「ループのある決定木」


・ウィキペディア「ニューラルネットワーク」
 https://ja.wikipedia.org/wiki/%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%A9%E3%83%AB%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF

 本日の関心はそこにはないので省略です。…ええーっ!!(※表現は演出ですが本当に省略します。)

・大和総研の見解です(2016年11月15日)
 https://www.dir.co.jp/report/column/20161115_011398.html

 > ディープラーニングが実現していることを冷静にみてみると、これは統計における主成分分析とほぼ同様のことである。

 「主成分回帰(PCR)」で求めた回帰モデルを使って画像の判別もできれば生成もできるのだという、そこだけおっしゃればよろしい。(※見解です。)

※単回帰から重回帰に“拡張”するようなことを、バーコードが2次元になるために1回、さらにカラーにするために1回みたいな、そういう“拡張”を2回したくらい、わたしたちが素朴に勉強できる統計からは“絶望的に”離れたところにあるのがディープラーニングだという一種の諦観のようなものが&しつれいしました。(棒読み)

・かの有名なオー野原氏(※仮名)がgdgd説明します(※表現は演出です)
 https://www.slideshare.net/pfi/deep-learning-22350063

 > 専門家向けではなく一般向けのDeep Learning(深層学習)の解説です。

 https://image.slidesharecdn.com/deeplearningforbeginner-130602195048-phpapp02/95/deep-learning-12-638.jpg
 https://image.slidesharecdn.com/deeplearningforbeginner-130602195048-phpapp02/95/deep-learning-15-638.jpg
 https://image.slidesharecdn.com/deeplearningforbeginner-130602195048-phpapp02/95/deep-learning-18-638.jpg

 とりあえずこの3枚だけでよろしい。(※見解です。)

 …などと、これでもう本日の話題は終わった(≒リンク先を参照のこと)&しつれいしました。あとはもうぜんぶ余談ですから読まなくていいですよ。ええ。(棒読み)


★(実験的な使用に留めるべきです)


・「tips」
 https://make.girls.moe/#/tips

 > Better generation

 > The input of the model consists of two parts, the random noise part and the condition part. If you generate a good image, you could try to fix the noise part and use random conditions to get more good images. We have observed that a good random noise is important for the better generation.

 うーん。…うーん! あえていおう! なにもいわないでおこうと!!(略)そういうことがしたかったんじゃなかったんじゃありませんこと? あらあら、まあまあ!(棒読み)しばらく遊ぶ(※)とわかりますが、あなたがたがディープラーニング(というか数学)の教科書の用語に従って自動的に「the random noise part」と「the condition part」と呼び分けているのは、学習に使われた絵を実際に描いたたくさんの人々に対して、きわめて横柄な態度だと感じられてきます。「the random noise part」と決めつけて「you could try to fix」などと(大巾に中略)とんでもない!(棒読み)「the random noise part」といっている部分(そこを固定せず、その他をぜんぶ固定した場合にふらふら変動する部分)こそが、元の絵を描いた人が発揮した独創性そのものではないかと感じました。

※「わかる」と実感できるまでじぶんで試行錯誤してみる&英語のPDFもちゃんと読むのに7時間×3日はかかります。5分だけ試して「こんなものか」みたいに思ってはいけません。あなたは「生成」ボタンを押したら3秒で画像が出てくる高速なPCを使って、それだけの時間、もう見たくない(※ぼやけた画像ばかり見ていると目が疲れます)と思ってもなお「生成」を続けるのよ。きっとよ。(※表現は演出です。疲れたら休んでください。これゼッタイ。)

 この「noise」というのは数学的な見地よりする便宜の呼びかたであって、▼「元の絵に“ノイズ”を乗せて別の絵になる!」みたいな『日本語』で曲解してはいけませんよ。

 ▼「noise」とは「離散」のパラメータである(※「xの値を入れると、まるでランダムに見えるyの値を出してくる『まことに都合のよい関数!』」と思えばよい)、▼ある値に対して1対1で対応する出力が定まるのですよ。すべての生成画像には「i丁目j番地!」(=後述)みたいな一意のアドレス(特定の出力が必ず得られる入力)があるわけです。…そこからですかっ!!(※恐縮です。)

 その「noise」を、AIの外側で、つまりわたしたちがじぶんでサイコロを振ってあてずっぽうで決めて、しこうしてAIの入力に渡すということになってございます。サイコロをどう振ったかという責任がわたしたちに押し付けられているともいえます。(棒読み)

 https://www1.doshisha.ac.jp/~mjin/R/47/47.html

 > データサイエンスの分野では、観測データからノイズを取り除き、一定の法則を見つけ出して抽象化することをモデリングと呼ぶ。

 > モデリングには、応答変数が何らかの確率分布に従うという仮定の下で、モデルに必要となる係数・パラメータを推測する方法が最も多く用いられている。

 そういう仮定で“美しく”扱えないものをぜんぶ「ノイズ」ということにするというわけであります。しかし、それは簡単な関数しか使わないからそうなるんでしょみたいな&しつれいしました。(棒読み)

・「一意の」
 https://www.nttpc.co.jp/yougo/%E4%B8%80%E6%84%8F%E3%81%AE.html

・「創作的寄与」とはにわが知りたい(2017年11月28日)
 http://www.itmedia.co.jp/news/articles/1711/28/news020_4.html

※はにわ:よくわからないもの、の意。

 > Optionsとしては、単純計算でも27万通りくらいの組み合わせがありますので、どのOptionsを選ぶのかという点については、選んだ人の「創作的寄与」はあると考えても良いような気がします。
 > 気に入った画像を選別するという行為をした場合には、その選択行為に「創作的寄与」があると考えてもよいかもしれません。

 うーん!! 「condition」に属する34種類より「noise」の128の値のほうが支配的な項になっているという感触があり、その「noise」に関してまったくサイコロを振っているだけである限りは「創作的寄与」とはとてもいえますまい。(※当座の見解です。)

 > 「依拠(いきょ)性なしとして著作権侵害とならないという考えも十分成り立ちうるが、現行法上の解釈を前提とすると依拠性ありとして著作権侵害となると思われる」というものです。

 サイコロを振ったけれどうまく振れてないみたいなときに、ほとんど元の画像の特徴をそのまま反映して色だけ違う程度の画像が出力されてしまった(※「されてしまった」に傍点)とき、それは限りなくアウトではなかろうかと&しかし(学習に使われた)元のデータのいずれとも「じゅうぶんな距離があります(どれとも似ていません)」みたいな『保証』を示す表示(数字)は出ないのでまったく不安だよとはこのことだよ。

 ユーザーがナイーブにサービスを使用すると、どこかで見たことのある感じがする画像が生成されたときに好ましいと感じ、従って、サービスとしては、元のデータを『申し訳程度!』に改変してみせた画像を出力するケースをユーザーに期待させるという構図になってしまっていないでしょうか。画像をパラメータで生成している(そのパラメータをランダムに決めさせるUIを提供している)ということが、そもそも『見せ金!』のようなものになってしまってはいないでしょうか。…かなりギクッ。(※見解です。)

・「見せ金」とはにわ
 https://kotobank.jp/word/%E8%A6%8B%E3%81%9B%E9%87%91-138713

 > 商売などで、相手を信用させるために見せる現金。

・うーん。
 http://b.hatena.ne.jp/entry/make.girls.moe/%23/

 > ***キャラが出てきたらご一報下さい。
 > 2017/08/21

 https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcQ5HMD6F8FCUylFLYXSXxSxOxw5EJY3B2sAMf9RDEUGX4AbEsdbzQ

 「year」が「2009」の学習データにある(※PDFで例示されている)ので「0.5」くらいを指定していればドンピシャな画像(※***先生の絵にしか見えない)がうっかり生成されてくるのではありませんか。…ギクッ。(棒読み)しかし、(特定の「先生」に帰属する)ユニークな絵柄がほとんどそのまま出てくるようなことは(確率の低さに頼るのでなく)システマティックに避けているのではありませんか。(※詳細は不明です。)

・『平均顔!』:絵を書いたひと自身が独創性を主張しない感じ(絵を描いたという労力への対価しか期待していない)
・『非平均顔!』:数学的にいえば「外れ値」ではありますが、いえいえいえ、そこに確固たる独創性があるのですよ

 学習データには『非平均顔!』も含まれているけれど(※そもそも平均というものは、ぜんぶ入れて学習したから定まるもの)、生成するときには『平均顔!』だけにしますよということが実際に保証されるなら、あまり(実際的な)問題は起きてこないのではないですか。(※具体的な疑義があれば個別に争いなさいということです。それが民事でございます。)

 ひとがじぶんで描く場合と照らしてみましょう。▼だいたいこんな感じ(※「だいたい」に傍点)みたいなふいんき(※画風、絵柄ともいう)を過去の作品に“取材”して、しかし▼じぶんで描く(最初は模写しながら採り入れてじぶんの絵にしていく)というのとだいたい同じこと(※「だいたい」に傍点)に過ぎないと…いえるんでしょうか。(棒読み)

 なお、「year」は-1.5、-1.0、-0.5、0、0.5、1.0、1.5のどれかに固定すると「絵柄」が(合成に失敗した感じにならず特定の年代にありがちな絵柄に)はっきりする傾向がないでしょうか。いえ、0.6、0.9、1.2、1.5のほうが『ピーク感!』があるような気もしてきます。本当でしょうか。

 もっとも、「AIを使えば誰でも○○!」みたいにいわれるのはかなりアレだと(略)あなたが描いた絵を20枚くらい入れると「ポートフォリオを採点」(※個々の絵の出来不出来ではなく、あなたの構想力やバランスのとりかたのようなものを採点)ですとか、購入履歴や読書履歴(の表紙画像)から推薦するですとか、そういう用途が期待されるのではないんですかねぇ。(棒読み)


★(データセットを検めます)


・かみつたセンセイ「被覆率」
 http://ibisforest.org/index.php?%E8%A2%AB%E8%A6%86%E7%8E%87

 > 欠損値があるデータ
 > 近傍を使う手法で,近傍にデータがない

 > 機械学習の文脈では,与えられたデータのうち,こうした障害がなく実際に処理できるデータの割合を被覆率と呼ぶことが多い.
 > 情報検索では,利用者が適合していると知っている文書のうち,実際に適合判定されたものの割合を表すことがある.

[3662]
 > ゲームをつくるあなたの都合でなく、プレーヤーが「こんな駅にしたいんだけど」とめいめいにおっしゃる(※情報検索でいう検索要求ですね)、それをどのくらいカヴァーできているか(※F値ですね)を概数でいいから比率でとらえなさいよということです。わあぃベン図。

 だいたいそんなようなことを見ていこうと思います。

・(2017年8月18日)
 https://arxiv.org/abs/1708.05509

 PDFの本文中を行ったり来たりしながら読みます。あしからず。

 > (前略)Then we download images and apply lbpcascade animeface, an anime character face detector, to each image and get bounding box for faces.

 証明写真の自動トリミングのやうだとはこのことだよ。(※入力される画像は顔の画像であるという前提で処理をする、の意。)

 > We observe that the default estimated bounding box is too close to the face to capture complete character information that includes hair length and hair style, so we zoom out the bounding box by a rate of 1.5x.

 …ちょっとなんだかなぁなんだよね。(違)

 > Figure 13: Available dataset images by release years.

 たったいま「2009年は0.5」みたいに早合点しておいて早速ではございますが、まったく日付順に並べて、その順番を-1.5から+1.5にマップしているとかってあるんですかねぇ。そうするとえらく指定しづらいと思うんですけれど、ブラウザのバーでは0.1刻みで調節させられるんですよねぇ。(棒読み)

 > Finally, from 42000 face images in total from the face detector, we manually check all anime face images and remove about 4% false positive and undesired images.

 42000枚のうち4%すなわち1680枚くらいはなかったことにしたと、こういうわけです。(棒読み)40000くらいしか元の絵はなく、そこに表現の重複がかなりあるだろうといって仮には1/23くらい(?)で5000になるでしょうか。(※あくまで概算です。)

※▼キャラクターが人間じゃないとか▼顔を隠してる「謎の人物」(という登場人物)だとか、▼3人くらいくっついて「取り巻き3人衆」みたいなことですか。(棒読み)

 つまり5000、つごう5000ほど、色の塗り替えや表情などは数えず純粋に人物の表現や「画風」のバリエーションだけを数えたとすると、わずか(※「わずか」に傍点)5000通りくらいしかないのではありませんか。あまつさえ「year」は7くらいの分解能で考えることができるようですから、「year」を指定すればもう(※「もう」に傍点)700通りくらいしかないのではありませんか。本当でしょうか。ハウスメーカーのカタログを見ながら注文する注文住宅って、本当に『注文住宅』なんでしょうかねぇ。(棒読み)

 > Figure 8: Generated images with fixed noise part and random attributes

 それではもはや、いつかどこかで雑誌の付録についてくる『漫画がうまくなる定規!』(※仮名)でしょ。(※見解です。)

 > Incorporating label information is important in our task to provide user a way to control the generator.
 > The generator G receive random noise z along with a 34-dimension vector c indicate the corresponding attribute conditions.

 絵とともに収集した「タグ」に依存しているので、「タグ」として言葉で書かれるまでもない明らかな特徴や、言葉にしにくい特徴(※描いた人の癖みたいなもの=「画風」「絵柄」という言葉だけで言い尽くせるとも限らない、あやふやなもの=むしろ不安定感)はぜんぶ「the random noise part」とされるしかないようすがうかがえます。

※主成分分析になぞらえて簡易な理解を試みれば、「タグ」を主成分分析にかけて固有値が1以上のやつ(!)を採ることにしたら、上から34個まで採ることになったよみたいなことです。…たぶん!!

 …えっ。「タグ」は「収集」したものではないですって?

 > We use Illustration2Vec, a CNN-based tool for estimating tags of anime illustrations for our purpose. Given an anime image, this network can predict probabilities of belonging to 512 kinds of general attributes (tags) such as “smile” and “weapon”, among which we select 34 related tags suitable for our task.

 ええーっ…。ま、いかにも人手で付けたときに付きそうなやつ(!)を推定してみせるということですから、やはり言葉にしにくい特徴は無視される方向にあると思ってよろしかったでしょうか&しつれいしました。(※見解です。)

 > Figure 9: Generated images under fixed conditions.
 > Table 2: Precision of each label

 そういうオプションだし&そういう並べかただし…うーん。「タグ」の推定結果が「ラベル」で、これも34種類なんですね。

 > We show the selected tags and the number of dataset images corresponded to each estimated tag in Table 1.
 > For set of tags with mutual exclusivity (e.g. hair color, eye color), we choose the one with maximum probability from the network as the estimated tag.

 えーっ。(しばらくお待ちください。)…えーっ!(棒読み)「タグ」って、そういうことなんですか。「weapon」とかって、すんごく大きな特徴(複数の特徴量)を“よく束ねる”(要約する)ナイスなタグじゃありませんか。(※あくまで私見です。)サービスの作者らのアルゴリズム(※)の都合上、属性は排他的でなければいけないというのはそっち都合でしょ(…『そっち都合』!!)本来は「weapon」みたいなタグと連動する特徴量もうまくコントロールできるようにしないと役立たずでしょ。(※感じかたには個人差があります。)

※ディープラーニングのチェーンだけでなく、データセットを用意するところからウェブサービスでデモンストレーションするところまでぜんぶの工程を総称しています。

・「証明写真を自動でトリミング・画像補正するソフト」NECソフトです
 https://www.bcnretail.com/news/detail/060619_4576.html

 > 用途としては、顔写真付きの社員証、学生証、運転免許証、パスポートなどを想定しており、通常は1枚1枚手作業で行うトリミングと画像補正を自動化し、コストダウンと作成時間の短縮を可能にする。

 …というソフトウェアを組み込んだシステム一式お納めの(略)NECでも使っているんですかっ&しつれいしました。

・東京新聞「運転免許証 医療用帽子、着用認める がん患者の要望受け」(2018年6月20日)
 http://www.tokyo-np.co.jp/article/national/list/201806/CK2018062002000255.html

・NHK「古いコンピューター そのままだとGDP12兆円の損失」(2018年9月6日)
 https://www3.nhk.or.jp/news/html/20180906/k10011614761000.html

 > 企業が

 「顔写真付きの社員証」をつくるシステム一式みたいなのも新しくしないといけないんですね、わかります。(棒読み)

・インプレス「NEC、社員証のICカード化を促進する統合ソリューション」(2005年7月20日)
 https://enterprise.watch.impress.co.jp/cda/security/2005/07/20/5766.html

 > NECは、このソリューションの効果を実証するため、同社の社員証の更改時期にあたる2006年4月より、3万人に及ぶ全社員へこのソリューションを導入する。

 このくらいの時期のシステムがそろそろですか。本当でしょうか。(棒読み)システムには目的がないとだよね。要素技術のデモンストレーションだけで終わっていたらいかんですばい。…ギクッ。


★「Frechet Inception Distance(FID)」=「分布と分布の距離」


 引き続きPDFです。読む順番はかなり前後しています。あしからず。

 > To evaluate the FID score for our model, we sample 12800 images from real dataset, then generate a fake sample by using the corresponding conditions for each samples real images. After that we feed all images to the Illustation2vec feature extractor and get a 4096-dimension feature vector for each image. FID is calculated between the collection of feature vectors from real samples and that from fake samples.

 評価実験では特徴ベクトルは4096次元であらせられる(※評価実験については後述)。

 > On the conditional generation of images, the prior distribution of labels Pcond is critical, especially when labels are not evenly distributed. In our case, there are only 49 training images assigned with the attribute “orange eyes” while 8861 images are assigned with the attribute “blue eyes”.

 後の図で「Input(128+34)」と説明されるように、著者らが「prior」とみなした(※「タグ」との整合性もよい?)「cond」を34、残りの128(※「タグ」との対応が不明瞭?)を「noise」ということにして(UIとしては「ランダム」にして)おられますが、これぜんぶで特徴空間を成していると理解してよろしかったでしょうか&しつれいしました。

 > By fixing the random noise part and sampling random conditions, the model can generate images have similar major visual features (e.g. face shapes, face directions).

 ほぅ。(※恐縮です。「顔の向き」については後述。)

 学習に使われた元のデータとしては「year」を問わない状態でも実質的に5000通りくらいしかない(類似画像が多いはず)と思われるものの、そこから「128+34」の特徴に分解し、特徴ごとに微調節しながらなめらかに(5000通りの元の絵をブレンドしたような画像を)生成できるとおっしゃる。…本当でしょうか。しかし、それはブレンドの微調節に過ぎないのであって、「27万通りくらいの組み合わせ」と捉えるのは適切ではないのではないかなぁ。(棒読み)

 > Figure 15: Samples in the first column and the last columns are randomly generated under different combinations of conditions.

 テキタウな絵を2枚選んでステップ数を指定するとパラメータを連続的に変化させてモーフィングできるよ☆たのしいよ。…たのしくなんかないやい!(棒読み)とはいえ、このサービスの本質的なところをよく見せてくれるデモンストレーションにはございます。モーフィングの両端に置く絵が、究極的には40000枚くらいの元の絵なんだと理解し、わたしたちモーフィングの途中の絵をランダムに抜き取って並べて一喜一憂するのだと、たぶんこういうわけです。

 主成分分析になぞらえて簡易な理解(…それを「早合点」ともいうよ)&ぎゃふん! 元の絵を配置した空間を『回転!』させたみたいな空間で端っこに来る絵(もしくはそのようにパラメータを指定して合成された絵)をモーフィングの両端に置くことができる、あくまで主成分分析になぞらえれば「4096」とか「128+34」の主成分で空間(※本件システムのデータセットが成す空間)が表現される…そういう概念的な理解でよろしかったでしょうか&しつれいしました。(※あくまで概念的です。実際の実装に沿った理解ではありません。…『実際の実装』!!)

[3658]
 > 暗黙に「マップの四隅とも必ず海または山であること」を要求しているよ。…ええーっ。2本の対角線のうち1本の両端が「10m」「0m」「-3m」でなければいいんですよぅ。突っ張り棒がないと部屋が縮むんですよ。…なにそれなにそれ!? どこのからくり屋敷?(棒読み)

 「学習に使ったデータ」(の、いろいろな軸における最大と最小)が「突っ張り棒」なんですよ。収集した範囲での相対的な特徴(※分布⇒分散)を使うのであって、何が特徴たるかを先に決めてかかるわけではないのですよ。エレガントだけどもどかしいよね。…ええーっ。(棒読み)

・「FID score」かく語らずを語りき(※キャプションは演出です)
 http://bluewidz.blogspot.com/2018/02/frechet-inception-distance.html

 > 減ってる!

 おぬし「減る」と表現するようではいかんのう。(※見解です。)「FID score」は「量」じゃないでしょ。

 そして、サンプル数(集合の要素数⇒隣接行列の次元)が増えれば組合せがバクハツするんですから当然ですよね。

・「比」ーっ
 https://kotobank.jp/jeword/%E3%81%B2%E3%83%BC
 https://kotobank.jp/word/%E6%AF%94-118748

 > a、bを同種の量とするとき、aがbの何倍かあるいは何分のいくつかに当たるか、という関係をaのbに対する比といい、a:bと書く。

 > let out a shriek

 「足湯シリエトク」については[3479]を参照。

・はにわ「注文住宅」が知りたいです?
 https://www.homes.co.jp/words/t2/525002939/

 > 施工主が、自分の希望をいかして建築する新築住宅をさします。間取りや仕様が決まっていたり、建築済みの分譲住宅に対し、オーダーメイドになるため間取りや外観・構造の設計が自由に行えます。もちろん設備や材料も希望のものを採用することができます。ただし、完成した住宅を見ることができないため、図面などを頼りに完成時を把握する必要があります。

 住宅展示場ー(↑)って、あるじゃないですかぁ(↓)。(棒読み)さっこんみやこではやる(違)『AIが描いた!』みたいな表現が荒唐無稽だというのはあたりまえとして、「AIが生成した」ということを技術的に正確に(※)理解しないと「創作的寄与」など判断できませんよ、という話題でございました。ハウスメーカーのカタログを見ながら注文する注文住宅の施主に「創作的寄与」を認めるわけがないとはこのことだよ。(※当座の見解です。)

 このAIでは何を元(学習データ)にしていて全体でどんな出力がなされうるのか(元にしたものから“導け”ないものはゼッタイに出てこない=あらゆる出力は学習データに依拠している=これゼッタイ)ということを確かめるということです。この「全体でどんな出力がなされうるのか」ということを、単に「オプション」の「組合せ」を分母として考えよう、あるいは実質的に無限であるととらえる、そのどちらも適切ではないのではないかと思ったという話題であります。フラクタルなものをどうやって数えるべか(…『べか』!)みたいなことではありませんか。(棒読み)

 http://yamaguchiyuto.hatenablog.com/entry/2014/04/28/095451

 > 次元の値が整数にならないすごいやつ。
 > 説明はWikipediaに完全に丸投げ。
 > CIKM2014で発表した

 ぬふっ。

・人工知能学会全国大会「Frechet Inception Distance」の使用例です(2018年6月)
 https://www.jstage.jst.go.jp/article/pjsai/JSAI2018/0/JSAI2018_1K3OS10a05/_article/-char/ja/

 > 深層学習では,検証用データの集合に類似したデータが学習用データの集合に存在するほど正答率の向上が考えられる.我々は学習用データと検証用データの集合間の距離を測定し,距離が近くなれば正答率が向上する良いデータであり,その逆は正答率を低下させる悪いデータであると考えた.この相関関係が明らかにできた場合,DAで拡張した学習用データの良し悪しの判断指標になると考えられる.

 …ええーっ!!(※見解です。)

 https://kotobank.jp/word/%E3%83%9F%E3%83%8B%E3%83%9E%E3%83%83%E3%82%AF%E3%82%B9%E5%8E%9F%E7%90%86-391988

 > ゲームで相手の出方を考慮しながら自分の行動を決める場合,相互の行動によって起こりうる最悪の事態を比較して,その程度が最も軽い行動を選ぶ結果,両者の間にある種の均衡が成立することを明らかにしたもの。
 > 非ゼロ和n人ゲームは非協力ゲームと協力ゲームとに分かれる。

 …非ゼロ和n人ゲーム。……『非ゼロ和n人ゲーム』っ!!(棒読み)


★「あのツタに覆われているセイボの木」「黒いキノコと藻が多いセイボの木」「リボンは体の一部」


・(再掲)
 https://gigazine.net/news/20180101-trees-language/

 > エクアドル・アマゾンに住むワオラニ族には、自然のネットワークの特性や生きとし生けるものはコミュニケーションを取っているという発想は当たり前のことだとのこと。そのため、ワオラニ族の言葉の中にも木々と周囲のものとの関係が反映されているそうです。

 > 彼らは木々について表現する時に「あのツタに覆われているセイボの木」「黒いキノコと藻が多いセイボの木」という言葉を使い、単なる「セイボの木」という言葉遣いは存在しないのです。

 > 個々の「種の名前」が存在せず、周囲の草木との関わりあいなど、生態学的な背景なしに名前を呼ぶことがないので、言語学者はワオラニ族の言葉を翻訳する時に苦労するとのこと。

 パラメータ「smile」といって-1から1までの(略)ええーっ!!(棒読み)ウェブでは「絵柄」と表示されるパラメータはJSONで見ると「year」と書いてあるように、学習に使われた元の絵の発表年の古いの(-1.5)〜新しいの(1.5)だということです。1.0くらいにしておけば2007年くらいじゃないかしら。…わらびもち食べよ! いつぞやの問屋がだなぁ(違)。データセットの上で厳密に2007年というのは「0.2くらい」なんですけど、…そうじゃないっ。あくまで現在のわたしたちが2007年っぽいと思える絵柄、すなわち2007年には斬新に感じられた絵柄というものは、本件データセットにおいて「1.0くらい」(2007〜2012年、あるいは2012年±2.5年)なんじゃないのと(略)しつれいしました。

[3654]
 > 「あのツタに覆われているセイボの木」「黒いキノコと藻が多いセイボの木」みたいなのが1単語で言えるんですね、わかります。…それに似たことは行政文書やプレスリリースみたいなのを扱う人はみんな(言語によらず)しているとは思うんですけどね。…その発想はなかった!(ありますってば。)

・ここでナショナルジオグラフィック日本版をご覧いただきます。
 https://natgeo.nikkeibp.co.jp/atcl/news/16/041500140/

 > 世界を見渡すと、左・右などの体を中心とした対比、東・西などの基本的な対比が多くの言語で使われているが、ユプノ語では現地の地形を基準に空間的な関係が表現される。

 > 「彼らは(略)完全に水平な家の中にいて、ある体系にもとづいて表現しているのです」

 外国から見ればそのように思われるかもしれない「画風」「絵柄」の『ある体系!』というものが(以下略)しつれいしました。

 ここで実験をば。サービスの作者らがほとんど考えていないであろう部分を試そうと、「髪の色が茶」「瞳の色が緑」で装飾的な表現はオフに固定(※「リボンは体の一部!」…じゃなくて、髪型の一部だとみなして「ランダム」にする=髪型につられてよきにはからへ!)して多数の画像を生成し、明らかな破綻のない画像のみを選択していき、それなりにバリエーションが集まったと思われた時点で生成を終了します。この「髪の色が茶」「瞳の色が緑」というのが、学習に使われたデータにおいて最もバリエーションに富んでいる部分ではなかろうかという前提です。データセットの中でこの条件を満たすデータがきっといちばん多かったはずだと決めつけながら(棒読み)、システムの挙動がいちばんよくわかる条件のはずだ(サービスにとって最も不利な条件だ)と期待されます。つまりチョコミントですね、わかります。…その発想はなかった!(棒読み)

※フレーバーはイメージです。ミントは含まれませんので安心してご賞味ください。(違)

 画像を生成するときに色のパラメータを指定すると、その色をしていた元の絵から学習された(色に限らない)特徴の重みを上げることになっていませんか。例えばネギもって踊るひと(※仮名)みたいな青緑色を(「上級モード」で複数の「色」の値を調節して)指定して「ノイズ」を「ランダム」にしても、ぜんぜんちんぷんかんぷんな画像が生成されてきます。あの青緑色というのは一種『予約色!』なので、学習データにはそんな色の絵は入っていないということだ(⇒元の絵から、色という情報も位置や複雑さという情報もまったく区別なく学習している=渾然一体とした状態でモデルを持っている⇒色の条件はそのまま他の条件を変えると色もちょっと変わるし、色を変えるとその他の条件に属すると思われる特徴まで微妙に変わる)と理解しました。

 > But we don’t take this in to account in the training stage. To sample related attributes for the noise, we use the following strategy. For the hair and the eye color, we randomly select one possible color with uniform distribution. For other attributes, we set each label independently with a probability of 0.25.

※uniform distribution:一様分布。

 https://ja.wikipedia.org/wiki/%E4%B8%80%E6%A7%98%E5%88%86%E5%B8%83

 > すべての事象の起こる確率が等しい現象のモデルである。
 > 一様分布とは個体間がほぼ等距離の分布を指す。

 主成分分析みたいなことをした結果「個体間がほぼ等距離」(ぜんぶ最大に離して配置するような空間にしている)になっているという理解でよろしかったでしょうか&しつれいしました。だからサイコロを振りさえすればそれっぽいの(「one possible color with uniform distribution」)が選ばれ(略)本当でしょうか。

※線画で描いて「何色にすればいいですか」みたいなことを“ご託宣!”いただくAIもありましたっけ。(※恐縮です。)

・ウィキペディア「完全グラフ」のイメージです
 https://ja.wikipedia.org/wiki/%E5%AE%8C%E5%85%A8%E3%82%B0%E3%83%A9%E3%83%95
 https://upload.wikimedia.org/wikipedia/commons/9/9b/11-simplex_graph.svg

※頂点が128あれば辺は8128あります。頂点が4096あれば辺は8386560あります。(棒読み)辺が8128あるのを中間9ステップ(と両端)という分解能でモーフィングできるとすれば、73152+128=73280…本当でしょうか。そこからざっくり(…『ざっくり』!)34種類にソフトクラスタリングするやうな、仮にハードに分けたとして73280/34≒2155ですぜ。本件AI、「cond」によらない部分としては2155通りくらいのバリエーションしかないのではありませんか。…ギクッ。

 最初のうちランダムで生成を続けながら、「髪型」がなるべく複雑なの(線が多い&「画風」によって線の細かさが大きく変わる&線の形状も複雑)が出てきたところから、パラメータを固定してまいります。(※恐縮です。)

・顔の向きによって学習データの質や量に差があるのではないか

 > By fixing the random noise part and sampling random conditions, the model can generate images have similar major visual features (e.g. face shapes, face directions).

 とのことですから、顔の形と向きが大幅に異なるものは別々に扱われ、それらが異なるもの同士のブレンドは行なわれないということですね、わかります。(…と理解しました。)

・(a)向かって右向き:やーい右手を差し伸べる上からキャラっ。(違)
・(b)向かって左向き:やーい友人Bもしくは説明キャラっ。(※恐縮です)
・(c)正面向き:やーい証明写真&無帽っ。(…えーっ)

 http://d.hatena.ne.jp/keyword/%B8%FE%A4%AB%A4%C3%A4%C6%B1%A6

 顔の向きごとに「a」「b」「c」と分けてから、それぞれを平面上で、あーでもないこーでもないと並べてみて、こんなものかなと思ったところで(※)、置いた位置に応じてコーディングします。必ずしも「year」だけでは説明できない「絵柄」の「第1主成分!」と「第2主成分!」みたいなもの(2軸)を『視感!』で抽出したようなものですぞ。(棒読み)これをサイコロに頼るのではなくて明示的に調節できないといけませんがな。…その発想がなかった!(あったけど。)

※後からぜんぜんうまく収まらないものが出てきたらそのとき考えればよい!(棒読み)だってサイコロを振ったんですから大丈夫ですよね。(もっと棒読み)

・「コーディング」とはにわ
 https://kotobank.jp/word/%E3%82%B3%E3%83%BC%E3%83%87%E3%82%A3%E3%83%B3%E3%82%B0-3320

 > 調査票の各項目に対する被調査者の回答を整理して,それを数字や記号のような符号 (コード) に翻訳すること。

 > 特定のルールによって定められたコードをつけること。

・「リボンは体の一部」
 https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q13106046823

 > カ*ネギにとっての長ねぎ
 > *ラ*ラにとっての骨こんぼう

・(♪〜)こちらは広島県教育委員会です(※キャプションは演出です)
 http://www.hiroshima-hatsukaichi-lib.jp/docshp/young.html
 https://www.pref.hiroshima.lg.jp/uploaded/image/146490.jpg

 > イラストの著作権は放棄していません。
 > (自分で描いたよ!と言わないように)

 これだね。

・(再掲)狛江市立図書館のイメージです
 https://www.library.komae.tokyo.jp/images/kid_img_search01.gif

・世田谷区立図書館のイメージです
 https://libweb.city.setagaya.tokyo.jp/images_t/research1_1.png

・(♪〜)こちらは京都府教育委員会です(※キャプションは演出です)
 http://www.kyoto-be.ne.jp/higashiuji-hs/cms/index.php?page_id=45
 http://www.kyoto-be.ne.jp/higashiuji-hs/cms/?action=common_download_main&upload_id=7423

 > 「高校生が主人公」の本を展示しました。

 うーん…。ま、そうともいうよ。(棒読み)

・「奈良美智」青森県立美術館の解説です
 http://www.aomori-museum.jp/ja/collection/nara/
 http://www.aomori-museum.jp/collection/nara/photo2.jpg

 > 2000年の帰国まで続くケルン時代は多作な時期で、代表的な奈良のイメージとして知られる挑戦的な眼差しの子どもの絵もこの頃頻繁に描かれた。

 あらかじめ奈良美智(※敬称略)を知っている現代のわたしたち、AIとも呼ばれるディープラーニングが「a50」くらいの画像を出力してきても驚きません。(違)逆にいえば、奈良美智を良く知らずに、しかし美しい「a50」みたいな絵を描いた者がいたとしても(「a50」みたいな絵を人間が自筆で描いた場合にあって、その人にはたいへん技術があって、対価の得られる仕事として成り立つと考えられつつ)、それでも奈良美智から(無意識またはさらに他者の作品を介して間接的にでも)影響を受けた絵だろうと受け止められるということです。だからといって模倣か剽窃かといって、それはないでしょ、「a50」みたいな絵がじぶんで描けたらすばらしいじゃないですか。(※見解です。)

a03a23a63
a12a32a42a82
a01a51a71a81
a00a20a40a50a70a80


 うーん。右に行くほど『小物感!』…じゃなくて、セリフが多そう(しかも早口)、上に行くほど『安定の主役感!』が高いなどと(略)しつれいしました。じゃあ(※)「逆」は「逆」なのかというとそういうわけではなくて、縦に見ると下から「画風が作者ごとに異なる感じ」「アニメ化決定」「コミカライズ重版出来」「オンラインゲームのキービジュアル」…げふ。(棒読み)

b03b13b23b33b43
b12b22b42
b01b31
b00b40


 うーん! この向きの画像はあまり出力されてこないんですよ(※じぶんで左右反転するのではなく)。その割に、出てきた画像のバリエーションがかなり幅広いと思いませんか。もしもし野球部はここですか…じゃなくて、「b00」はラフスケッチのよう、上に行くほど手が込んでいるぞっ。横に見たときのソレは、リニアに変化する感じとはいいきれませんけれども、講談社(※仮名)とかにいそうなひとからNECインターチャネル(※仮名)…じゃなくて京都アニメーション(※仮名)にいそうなひと、…とすぱっと分かれるわけでもないですけれど、あえていえばKADOKAWA(※仮名)が誇る紙の雑誌(…『紙の雑誌』!!)が分かれていそうな感じとでもいいましょうか&しつれいしました。(棒読み)

※実在する各社とは一般に無関係です。…『一般に』!!(棒読み)

 正面を向いておられるかたは困ったんですよ。ええ。かなり複雑なことになってまいります。

・c00
・c11、c12
・c21、c22:×さま! 所属を言えーッ
・c31、c32:ロボットでたたかいそう(そしてお腹が空く)
・c41、c42
・c51、c521、c522:実在しない感じというか「c00」のひとが(劇中劇で)演じてる感じ(違)
・c61、c62:幼少期の役も同じひとができそう(もっと違)
・c71、c72

 「c00」を中心に置いて同心円状に並べて角度と半径みたいな&しつれいしました。中心から離れる(半径が大きくなる)ほど手が込んでいる絵に見えるぞっ。(棒読み)角度としては1から7まであって、1と7の違いが最大というつもりでありつつ、うーん。まだ2つ以上の軸が混ざっている気がする。…『気がする』!!(※恐縮です。)

・「線画で描いて「何色にすればいいですか」みたいなことを“ご託宣!”いただくAIもありましたっけ。」付近
 https://paintschainer.preferred.tech/index_ja.html

 色はじぶんの責任で決めないといけませんよ。…いろいろな意味で!(棒読み)

[3658]
 > うごうご(違)わあぃメタルうぐーん!! ベホマズンとかピエールのほうがよかったな。…ピエール!!(もっと違)

 ピエールがいっぱい。うーん、うーん(略)ゆうべはうなされていたようだが(違)メタルって色なんですか…コレジャナイ。

・「社会調査工房オンライン」より「4-3-7 大量の図像を扱うとき、どのように分析を始めるのか?」「8-2-1 マテリアル(分析媒体)を選ぶことが大切」ほか
 http://kccn.konan-u.ac.jp/sociology/research/04/3_7.html

 > ポスターで<女>がどのように描かれているかを片っ端から紙にメモしてほしい。その<女>は誰なのか? 「母、娘、看護師、マリア、女性兵士、通信士、労働者」など、誰が見ても明らかだと思える明示された役割や人物を書きだそう。最初から整理して分類しようと思わずに、この段階ではラフなメモでよい。

 > まず、分類するときに一番難しいのは、自分の思い込みをできるだけ排することである。これまでの自分の行ってきた分類概念にとらわれていると、目の前の図像の読み解きが、先に結論ありきの平板でつまらないものになってしまうことがある。

 > その他にも分類不可能なイメージがあれば、それはそのまま捨てずに置いておこう。

 > ある図像の集団を表象分析するとき、気をつけなくてはならないのは、対象とする集合体の性格を十分に吟味することである。量が多いからと言って、必ずしもその集合体が全体の性格を万遍なく表わしているかは保障の限りではない。

 http://kccn.konan-u.ac.jp/sociology/research/08/2_1.html

 > マテリアルは仮説にしっかり対応したものでなければならない
 > マテリアルはその対象を代表する標準的なデータセットに成りうるものを選ぶ

 > 単純無作為抽出
 > 系統抽出

 > 8-4-4 面積、時間、色彩など揺るがぬ物理変数を工夫しよう
 > テレビ放送、映画やDVDなどの動画分析では、特定シーンや台詞(せりふ)持続時間、ファッション誌などでは背景色や文字色などの色彩が重要な物理変数となります。

 > ここで、ファッション系統毎にファッション誌は異なる語彙を用いる、といった仮説を確認するための集計を考えてみます。下の表8-3から表8-5まではデータセットを用いたクロス集計表です。因みにこれは架空データです。8-4-5で述べた併合法を用いて、掲載記事のタイトルの、平仮名の「かわいい」、カタカナの「カワイイ」、漢字表記の「可愛い」、ローマ字の「kawaii」、造語の「安かわ」「激カワ」など、「かわいい」の異字同訓や類義語、関連する語をすべて含めて、「かわいい」として捉え、1冊中にそれが出現していれば1の値を、そうでなければ0の値を与えた簡便測定の変数〈かわいい〉、同様の手順で計ったメイクやヘアメイクに係わる変数〈盛り・盛る・盛れる〉、スタイル全般に係わる変数〈わたしらしい〉を測定し、赤文字系と青文字系からなる変数〈ファッション系統〉との関連を調べたものです。

 ○る○るも△も△!!(違)

 > 表8-3から判る知見は、赤文字系のファッション誌では「盛り・盛る・盛れる」という表現が記事タイトルに24冊中で14冊に出現し、58.3%であるのに対して、青文字系では24冊中1冊すなわち4.2%に過ぎません。ファイ係数の大きさは0.584に達しており、0.1%水準で有意でもあります。赤文字系ファッション誌では青文字系と較べて「盛り・盛る・盛れる」という表現が随分と好まれていますね。それとは対照的に、表8-5からは、青文字系ファッション誌では「わたしらしい」という表現が好まれやすいということが判ります。表8-4からは、「かわいい」はファッション系統に拘わらず等しく用いられているという知見が引き出されます。さて、ここから先は皆さんの仕事です。皆さん自身の手で内容分析のデータセットを完成させ、そこから様々な知見を得てゆき、論文やレポートに活かしてゆきましょう。

 えーっ!! ここまで手間をかけてこれだけぇ!?(棒読み)

 https://images-na.ssl-images-amazon.com/images/I/619g-1kWcnL._SX353_BO1,204,203,200_.jpg

 > そのまま使える
 > 500
 > CD-ROM

 わあぃCD-ROMドライブが必要です!(違)揺るがぬ物理変数…じゃなくて、どう数えて「500」なのか考えてみよう。(棒読み)

 https://ja.wikipedia.org/wiki/DVD#DVD-ROM

 > Windows 98 Second Edition以降のWindowsがサポートしている。

 わあぃSecond Edition。それより前はCD-ROMで、それより後もしばらくはCD-ROMですぞ。(棒読み)

 https://gigazine.net/news/20170814-make-girls-moe/

 > 多くは「このキャラ、どこかの作品にいなかった?」というキャラクターができあがります。

 > 人工知能が条件に合った適切な美少女キャラクターを生成してくれるサービスです。

 こんな記事を書いていてはいけないよ。(※見解です。)

 https://www.gizmodo.jp/2017/08/make-girls-moe.html

 > 復旦大学、カーネギーメロン大学、同済大学、ストーニーブルック大学の研究者たちが共同で開発した画像生成マシーン「MakeGirlsMoe(女の子たちを萌えにする)」が時代の要請にしっかりと応えてくれています。

 …ぬふっ。URLが『京都新聞!』かなぁとか&しつれいしました。(違)

 > 女の子たちを萌えにする
 > 女の子たちを萌えにする

 『御社!』は和訳がとりあえずばっちりだけど他社媒体はこれだけの英語もできないのよ!! 1990年代の古風な絵柄(NECインターチャネル)を今風(KADOKAWAもしくは芳文社)に変化させるということだよね。(棒読み)

※…命令形じゃないの? 「We」が省略されているのではないかなぁ。本当でしょうか。

 > 正確にラベリングされたデータを膨大に利用して機械に学習させる従来のやり方とは違い、偽物を作ろうとするネットワークとそれを見破ろうとするネットワークの競合学習をさせることで必要なデータの量を大幅に削減させています。

 おおー。しかし、それは別の研究で提案されたソレを使っただけではありませんか。(棒読み)

 > そんな最先端の分野から「女の子たちを萌えにする」という画像生成マシーンが生まれるのがなんともシュールですが、「何が萌えなのか」という定義付けが難しい分野に挑戦できるところもディープラーニングの強みの一つです。

 そこは工学部の者の手に余る分野じゃて。定量的な感性評価をするのは別の分野だってばよ。…『だってばよ』!!(違)

 https://dic.pixiv.net/a/%E3%81%A4%E3%81%BE%E3%82%8A%E2%80%A6%E3%81%A9%E3%81%86%E3%81%84%E3%81%86%E3%81%93%E3%81%A8%E3%81%A0%E3%81%A3%E3%81%A6%E3%81%B0%E3%82%88%3F

[3587]
 > 心理学を修めていない者が、Rの操作だけを覚えて「因子分析」を行なってはならない(無資格××である)
 > 経済学を修めていない者が、Rの操作だけを覚えて「時系列分析」を、実経済のデータを題材として行なってはならない(無資格××である)

 そういう意味では工学部の者はダミーデータを使わなければならないのではないんですかねぇ。社会学を修めていない者が、自作のプログラムで実社会のデータを直接さわるのは無資格××ではないか(そういう注文を受けてから初めて、発注者からデータを与えられて初めてさわることが許される立場ではないか)ということも、ちょっと考えます。…『ちょっと』!!(棒読み)

[3639]
 > > この題名は「ノースウエスト航空で北へ」と解釈することもできる。

 > うーん。(違)

・ツイッター
 https://twitter.com/_aixile/status/898354192112164864

 > #MakeGirlsMoe をクレジットとして入れてください。

 まるでツイッターでシェアされることしか考えていないようだとはこのことだよ。

 > でも #MakeGirlsMoe を利用して、他の著作権を持つ画像とすごく似てる画像を生成した場合、著作権侵害になる恐れがあります。

 認識しておられる。

 > 以下の3つのファイルについて、他人への譲渡の可否を教えてください。 ・生成した画像 ・生成した画像のNoise ・画像の設定ファイル(.json)

 > 大丈夫です、ご自由にどうぞ

 「大丈夫です」といえる内容ではないと思うよ。「他の著作権を持つ画像とすごく似てる画像を生成」した「の設定ファイル(.json)」を.tar.gzで載せますけれど、上述のように「学習データに含まれる元の絵と酷似した画像を生成」すると「その絵の著作権者の権利を侵害」するという理解であります。「学習データに含まれる元の絵のどれとも似ていないが有名な作品に似せた絵柄の画像を生成」したときはどうでしょうか。もちろん、KADOKAWAや芳文社のキャラクターに似せたんですよと明示してですよ。じぶんで考えてかわいくしたよ(かわいい?)みたいなことを言ってはいけないんですよ。ええ。(棒読み)

 http://houbunsha.co.jp/company/index.html

 > 「漫画という万人に親しめるメディアを活用し、世の中を風刺し啓発し、日本中を明るくする」という出版理念
 > キャラクターの自作画(イラスト・パロディなど)を掲載すること。

 ほぅ。『弊社!』を風刺することは許さぬとおっしゃっておられる。(違)御社の著作物を使って(人気や知名度にただ乗りして)勝手な表現や主張をする(あまつさえ広告収入を得る=自作画を描いた人じゃなくてレンタルサーバーやイラスト投稿サイトが収入を得る)ことを許さないというのは当然であります。「AI」を試用しながら似せようとしたけど似てないし、具体的に特定のキャラクターを念頭にして似せようとしたのでもないという画像です。生成してみてから、あえていえば似てるかなーみたいなー&たいへんしつれいしました。

※KADOKAWAと芳文社を挙げたのは、キャラクターのデザインにおいて、キャラクターをも商標登録できそうなくらい、識別性を意図的に高めておられる気配があるからでございます。新作といって次々に別のキャラクターが登場してなお、一目で「おぬしKADOKAWAじゃろ」「おぬし芳文社じゃろ」と思わせるデザインがなされているのですよ。これはすごいことなのですよ。そういうデザインを生み出すためにしていることは何なのかといって、その実、本件AIと本質的には似たような高度な計算をしているのではありませんか。(※あくまで想像ですが2社のデザインがそのようになっているのは事実です。)

 https://dnmn37.hatenablog.com/entry/2018/04/11/144632

 > この3年間でいわゆる「きらら枠」が成立した

 させたんでしょ。そのために絵柄だけを先に開発して『描かせて』いるという産業構造ではありませぬか。絵柄が似ていれば「新作」でも「安心感」が出るのではありませんか。「コボちゃん」以来の手法だよね。(棒読み)

 https://anond.hatelabo.jp/20170814213339

 > 論文見た感じではちゃんと学習したデータを元に独自に生成しているっぽい。

 どう「見た」のかを書いてくださいよぅ。(※恐縮です。)

 https://www.oricon.co.jp/article/332000/

 > 「BGMのようなものは、すでに人工知能が大量に生成できるようになっているので、影響はじわじわ出ている。(略)使う側からしても、契約の手間がないので使いやすい。(略)」

 ▼学習ではない(じぶんで作曲するときに考えることをルールベースで書き起こしてサイコロを振る)、▼ゼロからパラメータで生成させる(そこからよさげなものを正解とするアノテーションだけを行なってパラメータに制約を加えていく)ということが音楽ではしやすいということですね、わかります。だいたいFM音源(の音色名)みたいなの自体がそういうものですよね。…その発想はなかった!(あります!)

※FM音源のトランペット! …あれはあくまでFM音源で発音可能なありったけの(その中では相対的に識別性のある)音色を並べてから「どの楽器に近いか」をアノテーションした結果でせう。トランペットの音色を忠実に再現しようとしたものではないでせう。(※見解です。)サンプリング音源は楽器のメーカーと奏者の権利がー(↑)だから高いよ。高ければいいんだよね。善か悪かという刑事じゃなくて誰が誰にいくら払うかという民事だよねとはこのことだよ。(棒読み)


★「Illustration2vec」=「ベクトル空間モデル」


 ディープラーニングかどうかという以前のところに戻ってのおさらいであります。

 特定のプログラムやライブラリの固有名詞ではなく、一般に通用する手法の名称で呼んでみせることもできないとアレですよ、スクリプトキディみたいなひとなんだと誤解されてしまいますよ。…ギクッ。ほとんどの者にとってCNNそのものをいじる部分は仕事じゃないので、そこはブラックボックスでいいんですよ。むしろブラックボックスにしておいて、続々と開発されてくる新しいAI(CNNの改良されたの)をどんどん使いながら、じぶんの目的にかなうかを定量的に評価できる、データセットと評価実験の枠組みを構築しておくところがわたしたち(※仮名)の仕事ではありませんか。…その発想がなかった!(※「が」に傍点。)

※…というような読者を念頭にしています。

・(たぶん再掲)ウィキペディア「スクリプトキディ」
 https://kotobank.jp/word/%E3%82%AC%E3%83%BC%E3%83%A9%E3%83%B3%E3%83%89-47311

 > つる植物や花を編んで作った飾り。ひもに造花や旗などをつけたものにもいう。

 …コレジャナイ。

 https://mangapedia.com/gd/dzgkxz2gg

 > 「株式会社キデイランド」が運営する東の旗艦店「キデイランド原宿店」と西の旗艦店「キデイランド大阪梅田店」をはじめとするキデイランド6店舗(「原宿店」「大阪梅田店」「吉祥寺店」「上小田井店」「福岡パルコ店」「エスト店」)

 キディランドへようそこ…じゃなくて。(…『ようそこ』!!)新人の成長(≒あく戦く闘)を描くストーリーの題名に「キディ」を入れるのはまったく正しいけれど、お客さまお客さまキディランドへようそこ…なんだかなぁ。(※感じかたには個人差があります。)

 > 1946年7月 創業

 1946年なので「イ」が大きいとはこのことだよ。

 https://ja.wikipedia.org/wiki/%E3%82%B9%E3%82%AF%E3%83%AA%E3%83%97%E3%83%88%E3%82%AD%E3%83%87%E3%82%A3

 > 「(他人の作った)スクリプトを使うしか能の無いお子様」という意味でスクリプトキディと呼んだ。またscriptには「台本」という意味もあるため、「他人の書いた台本に沿ってしか行動できないヤツ」という意味も持つ。なお、ここでいう「お子様(kiddie)」とは一般的な「子供」の意味にとどまらず、「程度の低い人物」全般を指す俗語である。

 > スクリプトキディの多くは、ハッカー文化に耽溺する傾向が強いが、その文化を表面的な部分でしか継承していない様子である。
 > スクリプトキディの多くは若年層でもある事から、工学的な興味を健全に発展させ、社会的に貢献できる優れたコンピュータ技術者へと成長する事を期待する人も多い。

 それが「お子さま」という状態(※年齢不問)だよ&自覚ある「お子さま」(※これから勉強するんだから最初からうまくいくわけないよねとわかって挑む)を目指しませう。(違)…ま、それはそれ。(※恐縮です。)

 ここでは、「タグ」の推定と「FID score」による評価のため使われている「Illustration2vec」をイメージとして借りてきて本件AIの挙動を概念的に理解しようではありませんか。(※実際のCNNでは「Illustration2vec」どころではない詳細さあるいは的確さで特徴量を扱っているはずではあるが、それをいきなり見てもわからないので、の意。恐縮です。)

 きわめて比ゆ的には、宇宙に星が40000あって、どの星からも別の39999の星への直行便みたいなのが(あなたが要求しさえすれば)運行可能ですよというような状態を想像していただいて(…ええーっ!!)、しかし、地上から星を見て、見える星だけをノートに平たく書き写したみたいなようすを想像いただきましょう。

※「タグ」の推定の箇所で「t-SNE」を使っているイメージそのものです。それ、いつかどこかで「MDS」([3469],[3566])でせう。つくったひとしかわからない可視化になっちゃうだめなやつでしょ。(※見解です。)

[3636]
 > MDSみたいなので散布図を1枚だけ眺めて「印象を述べ」るだけで何か的な結論しちゃってた残念な上の世代を“白い目”で見上げながら(…そういうのを「ジト目」というんですけど)だまって散布図行列にしてみせる(※あたしのほうがおねーさんなのよ)

・(再掲)「MDS(多次元尺度構成法)は得られる情報が少ない」日経リサーチの見解です
 https://www.nikkei-r.co.jp/glossary/id=1605

※つくった本人は高次元空間で先に理解しているので平面に落としてもわかった気になっちゃうんですけど他人が初めて見てわからないものを「可視化やでぇ(どやぁ」と言い放ってはならない、の意。

 評価実験では4096次元の特徴空間で扱って(=40000枚の元の絵を4096次元の特徴ベクトルで表現して=)おられます。これはどんなことだと思えばいいのでしょうか。ここに40000通りの「料理」があります!(棒読み)みんなが好き勝手に「我が家のみそ汁!」「我が家の特別な日のお菓子!」みたいなのを投稿するよ@じゃんじゃん投稿してね☆…がびーん。ノエルかわいい? うちのノエルのほうがかわいいもん!! うわぁノエルがいっぱい。ノエルがいっぱい。ノエルがいっぱい…。(※表現は演出です。)

・みんなが「我が家のみそ汁!」イタリア版
 https://kotobank.jp/word/%E3%83%9F%E3%83%8D%E3%82%B9%E3%83%88%E3%83%AD%E3%83%BC%E3%83%8D-639332

 > 各地方の伝統的な郷土料理が受けつがれているのも特色の一つで,あまり手をかけずに材料の持味を生かす,家庭的で素朴な料理が多い。

 「Input(128+34)」との説明のように、画像の生成に際しては「128+34」の特徴を入力として与えると一意な出力が得られるわけでございます。材料とも調理法とも発祥の地とも考案者ともつかないけれどそういう『レシピ用語(仮)』みたいなもの(レシピを探すための手がかり≒「キーワード」)が「128+34」種類あって、それの按排<あんばい>によって特定の料理ができてくる(※「できてくる」に傍点)んだというイメージでよいのではないでしょうか。…ええ、それでいいと思うわ。(※表現は演出です。)

 1から40000まで『通し番!』で呼ぶ(ぜんぶ固有の名前で呼ぶ&分類も何もない)のでなく、4096種類の材料の分量(使わない材料の分量は「0」、最も多く使う料理での分量を「1」とする)という形で「レシピ」として書くという状態が、「4096次元の特徴空間」にあたり、ここでは料理の材料がぜんぶで4096種類あるんだということですね、わかります。

※本件AIは「料理」でいえば「料理教室」に相当するなどの&その発想はなかった!(棒読み)料理教室で教える料理のレシピがぜんぶオリジナルじゃないといけないなんてありえませんし、料理教室で教える都合で簡略化したり平均化したりした「ちょっとつまらないレシピ」というのがよい練習や勉強になるんですし、特定の料理教室で局地的に大人気の変わったアレンジみたいなのがあったとして、それを習ってきた者が飲食店を開業して提供していいかといって、いいわけないでしょ&しつれいしました。(※あくまで考えかたです。…うわぁ『考えかた』。)

 どんどんいくよー(棒読み)こんどは星を見上げて書き写した…じゃなくて、地面で道路網でバスだと考えましょうか。この道路網のすべての交差点の間を行き来できるバスの路線網があると思っていただいて、われわれバスに揺られながら(略)道の途中で「おりまーす!」のほうなど&ぎゃふん。元の絵が「交差点」、「途中の道」がモーフィング(パラメータの分解能しだいで無限に細かくできる)、「おりまーす!」が生成された画像1枚だと思っていただければよいのではないですか。(棒読み)さっすがタモリさん(違)この角から向こうの角まで実際に歩いて歩数を数えてみましょうか。(もっと違)『歩幅の幅!』を変えるようなものが、このシステムで「ノイズ」といって0〜1の小数で与える時の値でございます。「ノイズ」の値をどれだけ細かく変えるかというのは『歩幅の幅!』くらいのものなんですよ。(※表現は演出です。)

・数えましてはNHK(大巾に中略)途中でわからなくなる『歩幅の幅!』のイメージです(2017年6月10日)
 https://www.nhk.or.jp/buratamori/map/list75/route3.html

 だいたいどのへんのバスに『乗』ろうかというのが34種類のラベルで指定でき、実際にどこで『降』りようかというのはサイコロを振るわけです。…そんなバスこわくて乗れないよっ。実は128個の値で「i丁目j番地!」みたいなことが指定できるんだなこれがっ。「AIと呼ばれる人工知能」と呼ぶとわからなくなるけれど、同じ「128+34」の「Input」を与えれば必ず同じ「Output」が得られるアルゴリズムなんだなこれがっ。(※こんな説明でええんかなぁ。…『i丁目j番地』!! ま、画像ですからiとjでいいよね。)

※バスより「あみだくじ」のイメージのほうがよほどマシだと思えてきます。…その発想はなかった!(棒読み)しかし、「あみだくじ」だと「それはそういうものだ」という納得が先にあってよくないんですよ。この理不尽さをわかるためにはあえてバスの例えが必要なんですよ。本当でしょうか。

 > Figure 3: Generator Architecture

 > Input(128+34)

 > Dense(64*16*16)
 > BN
 > Relu

 > Conv
 > BN
 > Relu
 > Conv
 > BN
 > Elementwise Sum

 > Conv
 > BN
 > Relu
 > Conv
 > BN
 > Elementwise Sum

 > Conv
 > BN
 > Relu
 > Conv
 > BN
 > Elementwise Sum

 > BN
 > Relu
 > Elementwise Sum

 > Conv
 > Pixel Shuffler x2
 > BN
 > Relu

 > Conv
 > Pixel Shuffler x2
 > BN
 > Relu

 > Conv
 > Pixel Shuffler x2
 > BN
 > Relu

 > Conv
 > Tanh

 > Output(3*128*128)

 この128個(「Input」)がどう効くのか、ここをこそユーザーがじぶんで思い通りに設定できる軸が用意されない限りは、まったくサイコロを振ってモーフィングの途中から抜き取って一喜一憂というとんでもない状態から脱せないのであります。せめて『漫画がうまくなる定規!(それでも描くのはあなた自身だよ)』といえるくらいの&しつれいしました。(※見解です。)じぶんでも絵を描くひと(※)にあって、むやみに「わあぃAI。」などとつぶやいてみせるばかりでなく(?)「色調をHSVで詳細に指定する機能くらいはないと実用的じゃないんだよねー(↓)」くらいのことは言ってくださいオネガイシマス。別々に生成した(色調がぜんぜんそろっていない)画像を並べて調和させる機能とかも必要だよね。(棒読み)アマチュアが想像もつかないプロが駆使するテクニックって、そういう「あのツタに覆われているセイボの木」「黒いキノコと藻が多いセイボの木」みたいなのなんですよね。「セイボの木」でも「黒いキノコ」でも、ないんですよね。(※表現は演出です。)

※じぶんで描けるから無用! …と言い切ってしまうのもアレですよ。絵を描くというのは技術ですぞ。ディープラーニングと呼ばれる新しいツール(=『新種の画材!』ともいえるし『新種のブラシ!』ともいえる=)も(※「も」に傍点)使いこなせないといけない時代がきっときます。

[3661]
 > 彩度が高すぎるよ(ゲーム内で浮かないようによく調整されたという気配がぜんぜんないよ)とはこのことだよ。

[3368]
 > 「緑色」と称された製品の色のけばけばしさに驚きますが、これ、ネガフィルムで撮影したときにちょうどよい(≒好ましい)色になるよう「逆算的に!」彩度を高めてあるんでは、ないですかねぇ。…たぶん。

[3540]
 > > 食戟のソーマ ペイント・色指定・検査業務

[3662]
 > 雪だからホワイトバランスはばっちりだよね。

 > ここから超技術(仮)『人力偏光フィルター!!』を駆使して…要は白っぽく反射していない部分を探すと、ゲーム内でオブジェクトの表面に持たせるべき色がわかるよとはこのことだよ。ゲーム内で「特急色」の車両を並べたら、完全に同じ色をしていてほしいというのが、(実車とは違う)ゲームに対する期待だと思うんです。

 http://q.hatena.ne.jp/1257168950

 > 平均的な自然界の物の反射率は18%
 > コダックは当時撮影された写真の濃淡を膨大な量の加重平均値から18/100という数値を導きました。

 ソニーのデジカメみたいなのを何も考えずに(キヤノンみたいな気軽さで=電源を入れてすぐ)使っちゃう(映像業界じゃない)技術者みたいなひとって、かなり色彩に疎いと思うんです。(※きわめて偏見です。ソニーというのはだなぁ&グレースケールも持たずに撮影ができるかッ!! 民生機だけどホワイトバランスはじぶんで=マニュアルで=とってあたりまえという発想なんだよね。)

※そういう意味でユーザーの技術に頼らないのがニコンとかオリンパスですよね。顕微鏡とかつくってるんですから当然ですよね。(棒読み)

・「i丁目j番地」の用例です
 https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q14119175089

 > 何GBもの広大な空間のどこにデータを書き込むか(読み出すか)。そこで必要になってくるのがアドレスです。すなわち住所。住所の表示方法は単純なもので、ただの番地です。都道府県市区町村はおろか、何丁目すら無い。

 ぜんぶ0から通し番だということですね。…『通し番』!!(棒読み)

 > a[i][j] のアドレスは、言ってみれば a 区 i 丁目 j 番地です。

 「さーつきちゃーん!」だって。…じゃなくて、やーい、***んち、i丁目j番地ーっ! そら逃げろー(わー♡)。(※表現は演出です。)

・(上述)「a」「b」「c」の後に「m」した:「茶色」だけの指定でテキタウな「ノイズ」を『偶然に発見(※「偶然」に傍点)』してから髪型と表情を整え、最後に色を整えたもの(※レタッチではありません=色がこの通りになるパラメータについてはJSONを参照)
・その後「e」した:元の絵そのものではなくじゅうぶんに合成が行なわれたであろうと明らかな(…『であろうと明らかな』!! どうしてわかるんですかっ)生成結果の例を示す(※学習データにはなさそうな画像を生成させる=元の絵では古風な画風や年齢が高く描かれていたものを『若返らせる』&ぎゃふん)
・思い出したように「k」した:…神戸新聞社のひと(※実名)!! 両手でぎゃふん、両手でぎゃふんっ。(違)
・数日ほど忘れてから「f」した:これまでにニュースセンターに入っている…じゃなくて、そのほかの○○を(以下略)

m01m11
m00m10


※「m11」:…起きて鏡を見たらネギもって踊るひと(※仮名)だったのん!! びっくりなのん!!(棒読み)

 髪型と表情だけが変わると期待して髪型と表情に関するパラメータをさわっても、画像全体に『変な影響!』が及ぶので、かなり試行錯誤を要します。画像だけで学習して得られた(意味なんてわかっていない)パラメータをさわっているんだなぁと実感できます。夏目漱石せんせいがいう「発生学から出立して、どんな具合に牛ができ、どんな具合に魚ができるか」という見地に(目指せば到達するはずのアプローチであるにもかかわらず)到達していないといえましょう。あまつさえ「瞳の色」を変えようとすると目の大きさや丸み、髪の色まで変わるんですよ。…画像だけで学習して得られたパラメータ(※その方向に変化させていけばおっしゃるような特徴を持つ元の絵に到達するというモーフィングの途中で「おりまーす」!)ですから当然ですよね。

※値は0.1単位でのみさわっています。もっと細かいことが本当はできるんですよね。34種類のうち1つを+0.1したら、残り33種類を−0.1/33してくれるみたいな機能があればいいんですよね。しかも、いまどんな画像で、そこからどれ1つをどっちに動かすと、ほかのどれがつられて動くのか(動かないものもあれば、動きかたもそれぞれ違う)がまったく場面によって違うときたもんだ。それを手作業で突き詰めるのは無理ですヤメテクダサイ。(棒読み)Excelでいう「ゴールシーク」みたいなのが自動でにょろーんと動いてくれる、そういうのを実際ににょろーんとするんじゃなくて事前の計算(学習)で用意しておいてほしい(大巾に中略)AIだからできるんでしょ?(棒読み)

・(上述)
 > サイコロを振ったけれどうまく振れてないみたいなときに、ほとんど元の画像の特徴をそのまま反映して色だけ違う程度の画像が出力されてしまった(※「されてしまった」に傍点)とき、それは限りなくアウトではなかろうかと&しかし(学習に使われた)元のデータのいずれとも「じゅうぶんな距離があります(どれとも似ていません)」みたいな『保証』を示す表示(数字)は出ないのでまったく不安だよとはこのことだよ。

 学習に使われたデータセットにおいて局所的にサンプルが足りていない(?)領域(⇒モデルとしても弱点のありそうなところ&「あっちむいてほい」が激しいところ)ほど、操作の対象が局所化できておらず画像全体に思いもしない変化が出てしまうということではありませんか。(棒読み)そういうこと(別のパラメータに属すると思われる特徴までつられて動く)が起きるということを“傍証”として(=数字で表示されるわけではないけれど「元のデータのいずれとも「じゅうぶんな距離があります(どれとも似ていません)」ということが示唆される=)、いま生成しようとしている画像は「じゅうぶんに合成が行なわれたであろうと明らかな」だったのだと追認していくわけです。本当でしょうか。

※「hair_style」の「ロング」を1に近づけるほど、肩と服に関して元の絵がそのまま出てきてしまうような危うさがあると思いました。以下の例では意図的に「ロング」は避けています。あしからず。「ドリル」は「髪型」だけでなく「髪のハイライト(コントラスト)」という特徴量を含んでおり、−1か+1かという両端に振るばかりでなく細かい値をうまく指定すると、(髪型はあまり変えず)主に「ハイライト」を調節するために使えそうですぞ。(棒読み)そして、これらのパラメータはまったくもってCNNを説明するスライド(=冒頭を参照)に出てくるJPEGの分解したの(!)みたいなやつ(!!)をどうブレンドするかというパラメータであるので、「ロング」も+1で「ショート」も+1にすると望ましい髪型が出てくるということがあるのですよ。じぶんが何をどういじっているのかを技術的に正確に理解しませう。

 https://youtu.be/YlIXL1_gW2E?t=10m19s




 学習データが局所的に足りないなら、足りない絵をイラストレーターさんに発注すればいいじゃない。…その発想はなかった!(※恐縮です。権利がぜんぶクリアーな学習データを自前で作って学習させてツールを完成させれば、それは正式な製品になりますぜ、の意。ディープラーニングだから学習データを加工したり勝手に追加したりしてはいけないなんて、そんなことはないッ。…自然現象を解明する研究じゃないんですからね。)

 https://www.clipstudio.net/oekaki/archives/151587
 https://s3-ap-northeast-1.amazonaws.com/wpsetupcspnet/wp/wp-content/uploads/2016/06/9016_m3-02b.jpg

 わあぃ塗り放題。画材が足りなくなることもないし洗わなくていいんだよ? …そんなよろこびがバクハツしたみたいな塗りかたが例示されてございます。(※感じかたには個人差があります。)

 https://lohas.nicoseiga.jp/thumb/1243377i

 …ぼふっ。混ぜ放題とは(以下略)だよ?

 > アニメ塗りのようなパキッとした塗り込みと、柔らかい雰囲気のある水彩塗りの中間のような塗り方を採用してみたいと思います。

 …ぐふっ。ひとことで「中間のような塗り方」とおっしゃるけれど、そこに独創性が生まれるんでしょ。(※見解です。)

※「パキッとした塗り込み」:ハイライトがしゃきっとしている=輝度のヒストグラムが飛び飛びになる。「柔らかい雰囲気のある水彩塗り」:水彩までいかなくていいよ! …じゃなくて、輝度のヒストグラムが連続的になる(グラデーションを使っている)。

 https://s3-ap-northeast-1.amazonaws.com/wpsetupcspnet/wp/wp-content/uploads/2016/06/9016-12b.jpg

 > [合成モード:覆い焼き(発光)]だと、
 > ハイライトが白からピンクに変わる色味になります

 色が向こう側へ飛び出してひっくり返って補色が出てくるみたいな、緑色のところに紫色のきらきらが出てくるような、あるいはピンク色のところに緑色のきらきらが出てくるようなのがナウいよね。…『ナウい』!!(棒読み)最初からRGBで描けてRGBのまま印刷できる(かのように思わせるほどのカラーマッチングができる)ということに感謝するのだぜ?(棒読み)

e01e02e03e04
e05e06e07e08
e09e10e11e12
e13e14e15e16


※太陽神戸三井銀行じゃないもん「さくら銀行」だもん☆(※実在する三井住友銀行とは無関係です。)

※洞爺湖のほとりで六畳間デース!!(違)

※おなかすいたー!! オリジン弁当あきたー!! …秋田書店(※実名)が誇る「ずぼら飯のひと」(※仮名)でいいっスか。(※恐縮です。)

※たまごが黒くなってるんですけど。ちょーいみわかんないし。てゆーかいみわかんないし!!(※表現は演出です。)

※特に順序があるわけではないが4×4で並べてみて左上から1ベースで付番したよ、の意。(※恐縮です。)

 「e01」「e05」「e06」「e15」は、JSONを読み込ませてさらに変化させてみるとわかると思いますが、かなり微妙な調整の結果、ようやく得られた生成結果でございます。画像だけ見ればこんなものかな…とんでもない! 「こんなものかな」と思ってもらおうとして安易に有名な作品の何某というキャラクターをそれとなくにおわせる色や髪型を使ってひきょーだぞー。(※見解です。)しかし、その髪型が実は古風な絵柄の学習データから得られた特徴をうまくブレンドしてみせることで引き出されている気配があり、学習データに1990年代のものが入っていることの威力の一端が垣間見られるとは思いました。(棒読み)

 「色」のパラメータを「色の決定」ではなく髪型の「躍動感(仮)」のようなものを調整するパラメータとして使って、しかたなくその色になっているというものもございます。あとからレタッチすればいいんですよね。…『あとからレタッチ』!! それをレタッチというよ。(棒読み)

 https://kotobank.jp/word/%E3%83%AC%E3%82%BF%E3%83%83%E3%83%81-9955

 大人のキャラクターの複雑で多様な髪型を子どもっぽいキャラクターにふいんきだけ(…『ふいんき』!!)持ってくるみたいなことをしているとは思うんですよ。…あざっす。(違)

※「ふいんきだけ」:「雰囲気だけ」ですらない&見る影もない、の意。

・…まったくもってこんな気分しかしないよとはこのことだよ。(※本文とは無関係です)
 http://www.rise.sc/shop/detail/10420/
 http://www.rise.sc/img_uploads/image262/00000014_00000374_00010420.jpg

※子どもから見て、じぶんの髪型が実際にどうなったかじゃなくて、美容師のおねえさんの髪型を見て楽しいとか、ママやパパがよろこぶからうれしいとか&ぎゃふん。(しつれいしました。)

 http://www.chokkins.com/pattern/

 > チョッキンズのスタイリスト・スタッフは、提携のベビーシッターのプロ(小学館HASから)幼児対応トレーニングを受けた精鋭ばかり。こどもが泣き騒いでも、お母さんは安心して任せられます。

※「から」は括弧の外に書きたかったのではありませんか。(棒読み)

 http://ure.pia.co.jp/articles/-/78969
 http://ure.pia.co.jp/mwimgs/3/e/-/img_3ee23744b8124bbb81ca2b68f24c690d60010.jpg

 > シャワー台に鎮座しているニャンコ先生(夏目友人帳)は美容師の**さん私物

 > 「変な話、2次元キャラクターの髪型って美容師の概念と理論を崩さないと切れないんですよ(苦笑)。一応、一美容師なので、他の美容室で断られたというのも、その理由もわかるのでそれを踏まえた上で提案できると思います」

・神戸、神戸です。(※キャプションは演出です)
 https://getnews.jp/archives/131219/gate
 https://getnews.jp/img/archives/002433.jpg

kobe09kobe13kobe17
kobe19kobe21kobe23
kobe29


※「kobe17」:…気になります! 「kobe19」:迷子になって帰れないひと! 「kobe23」:ぞい。…そっちは京都ですよぅ。(※表現は演出です。)

 https://neorail.jp/forum/uploads/kobe21.gif
 https://neorail.jp/forum/uploads/kobe13.gif

 …もういいですか。写真に写るのがうまいひとは必要最低限の秒数しか「smile」しませんで。(違)なるべく「神戸新聞社のひと(※実名)」に近い色に(パラメータだけで)しようとはしましたが紫に寄ってしまいます。もはやレタッチするしかないとはこのことだよ。彩度もガンマも揃えたいよね。(棒読み)

 https://ameblo.jp/sanako0918/entry-11961481134.html

 > 仕事で撮っている人の方が謙虚というか、現実的で、アマチュアの方のほうがプライドは高い気がしました。あくまでもそういう感じというだけですが、記念写真の撮影は仕事なので芸術性は関係ないと私は思います。
 > ポージングやロケーションの選択も、単純に思い切りの良さは経験で身についていくものですから、並みに勉強している方ならちゃんとできます。

 ふつーがいちばんきれいに見えるしうまく見えるんだよ。何がふつー(平均)かわかるためには40000枚の画像を入力して学習しないといけないんだよ。(棒読み)

 > 「あの先生は化粧っけはないけれど、仕事は安心して任せられる。でもあの先生はあの先生のバッチリしたメイクを見ただけでこりゃいかん同じにされると思ってしまう」と言われたことが何度もあります。

 > ヘアメイクというのは付属するもので決して主役ではないのですが、頑張りすぎてしまう先生は多かったですね。

 > やり直して納得してもらってからの被写体ののせ方は流石というか(笑)
 > のってきて表情がどんどん変わってくるのが、わかるんです。
 > 最後にはご機嫌な様子でお嫁さんも帰って行きましたし、実際の写真を手にして喜んでくださいました。

 > きつい顔のモデルさんなんですが、
 > 本当に本人だとわからないくらい綺麗に優しい顔で撮れている。

 さすがです。(棒読み)

・「表情の瞬間的変化の認知」(2005年8月31日)
 https://www.jstage.jst.go.jp/article/jcogpsy/3/1/3_1_1/_article/-char/ja/

 > (略)実験刺激には,途中で瞬間的に表情が変化する動画を用い,

 > 動画全般から受ける好意度の評定と,
 > 瞬間的に変化する挿入表情の分類判断を行わせた.

 > 途中の表情変化の呈示時間を530ミリ秒,330ミリ秒,200ミリ秒,130ミリ秒へと減少させたが,

  > 挿入表情が笑顔の場合に,怒りや悲しみの場合に比べて高い好意度評定値を示し,
  > 瞬間的な表情変化への情動的反応が認められた.

  > 一方,挿入表情が笑顔と怒りの場合には,200ミリ秒までは高い分類成績を示したが,
  > 変化速度が130ミリ秒に減少すると,怒りの分類成績が低下した.

 > 表情変化の時間が200ミリ秒程度あれば,表情の変化を認知できるといえるが,
 > 表情認知の容易性における3表情の差異が何に起因するかについてさらなる検討が必要である.

 もっと変化を速くしたいんですけどGIFでは無理です。

・神戸新聞社です。(2018年9月3日)
 https://toyokeizai.net/articles/-/235429?page=3

 > 言ってみれば「日曜プログラマー」です。
 > もちろん完全にプロのようにはいかないので、見る人が見ればたどたどしいコードだと思います。でも数万円で買ったパソコンでも動くような軽いプログラムなので、環境的に難しくはありませんでした。わからないことはネットで検索して調べながら作りましたよ。

 > プログラムには約12個のパラメータがあるので、そこから分析・算出しています。
 > 試合後、自動的につくられた原稿がパソコンの画面に出てきます。一応、担当者がチェックしてTwitterに投稿しているのですが、出てきた文章は全く編集していません。

 > 新聞社ならではの重み付けとしてこれまでに記者が書いた過去記事を学習させることにしました。

 目的と方法がちゃんとしていてデータセットもあって最終的にも責任を持てるので大丈夫だよとはこのことだよ。本当でしょうか。

・神戸新聞「AIはリアル記者に迫れるか 過去記事お手本に進化中」(2018年9月11日)
 https://kobe-np.co.jp/news/sougou/201809/0011628402.shtml

 > 実際の一打席速報の情報(画像2)
 > ちょうどエクセルの表(画像3)をつくるようなイメージです。

 https://i.kobe-np.co.jp/news/sougou/201809/img/b_11628513.jpg

 > 「逆転のタイムリーツーベースは、記事によく載るな」
 > 「押し出しの四球による追加点は、あまり記事にならないんだな」

 > 難しい言葉を使えば、ロジステック回帰という方法で、「記事として取り上げられる確率」を計算しています。ちょっとエラそうにいえば、たぶんみなさんが暗算ではできない計算だと思います。

※「ロジステック回帰」は原文ママ。

 …ぬふっ! 確かにねぇ。…実に確かにねぇ。

 https://www1.doshisha.ac.jp/~mjin/R/48/48.html

 > 多項ロジットモデルは、非線形重判別法として用いることができる。

 おおー。

 https://www1.doshisha.ac.jp/~mjin/R/47/47.html

 > Rの中の一般線形化モデルを推測する関数glmは、事象が「起こる」と「起こらない」の度数データを用いてロジスティック回帰モデルを推測できるように設計されている。
 > 返された値はロジット関数値であり、ロジスティック関数に代入すると応答変数の予測の確率値が求まる。

 このへんですかっ。…このへんですかっ!(棒読み)

 > 2項分布に従うデータのモデリングには、次に示す事象が起こる確率と、起こらない確率の対数オッズの線形回帰モデルが広く用いられている。
 > この式の左辺をロジット(logit)関数と呼び、次に示すその逆関数をロジスティック(logistic)関数と呼ぶ。
 > この式を用いた回帰をロジスティック回帰と呼ぶ。

 「起こらない確率の対数オッズ」というところに対数が効いているので「ロジスティック」。たったそれだけの意味だよとはこのことだよ。…その発想がなかった!(※「が」に傍点。)まったく線形回帰(重回帰)だけど、野球の試合の運びという連続的な事象を扱うんだから大丈夫だよね。本当でしょうか。

f01f02f03f04
f05f06f07f08
f09f10f11f12


※特に順序があるわけではないが左上から並べてみたら4×3になったので1ベースで付番したよ、の意。(※恐縮です。)

※「f01」:潜水艦(仮)のAIみたいなひとが特別な手続きで1日だけ転校生してみた@ほぇ〜。…AIだけに。(棒読み)

※「f02」:なんかもしゃもしゃする! …AIだけに。(違)

※「f04」:モノクロ印刷で網点になるとかっこいいんですよ。

※「f05」「f09」:電柱のひと…じゃなくて、ノイズとかいってすんません@特定の「先生」の絵柄に見えてしまうのは気のせいだ。

※「f08」:ちょっと辞書投げしてみる? ほら、あたし教えるのうまいし。(※絵柄は異なります)

※「f12」:…ヴぁ!

 色も絵柄も違うのに「辞書投げしそうなふいんき」とか「ヴぁ!なふいんき」という抽象的な特徴量というものがそこに確かにあるんですよ。…え? ないって? これはたいへんしつれいしました。(棒読み)

・NHK「テレビ美術から見る「キャスターショー」の誕生と発展〜『ニュースセンター9時』と『ニュースステーション』のスタジオセット分析を中心に〜」(2009年11月)
 https://www.nhk.or.jp/bunken/summary/research/report/2009_11/091104.pdf

 > 「NC9」と「Nステ」のテレビ美術の間には,その表面上の様々な差異にもかかわらず,多くの共通点を見出すことができる。

 これだね。

 > テレビ美術は通常,テレビ視聴者の意識や関心の主たる対象にはなりにくいものの,番組の映像表現にリアリティや臨場感,説得力,信頼性を与え,番組が展開される「場」や「空間」のイメージ,距離感,親近感といった感覚の構成にとって不可欠な要素である(三林亮太郎,1978)。

 > この両番組は,1970〜80年代の放送界を代表する「キャスターショー型」ニュース番組であると同時に,現在にまで至るテレビニュース番組の基本スタイルを幾つかの点で決定づけた,いわば「プロトタイプ」でもある。

 「プロトタイプ」をつくるという先導的な役割が期待されてのテレビジョン放送の免許なんですから当然ですよね。(※恐縮です。)

 > 「NC9」は「ニュースの価値判断と提示方法で新聞を追うことがあたりまえになっていた」従来型ニュース番組から脱却し,テレビのメディア特性を活かした,より「テレビらしい」ニュース番組を目指していた(NC9制作グループ,1977)。

 > 「NC9」は「ちょっとキザですが…」といった言い回しに象徴される,磯村キャスター独特のソフトで軽妙な「話し言葉」による語り口が視聴者のあいだで人気を博したが,セットも番組の中心的存在である磯村を視覚的に際立たせるために計算されたものであった。

 > 「スタンドマイクではどうしても用意された原稿を読み上げるような演説調になってしまい,NHKの堅苦しいイメージが払拭できない」という磯村自身の強い意向に沿うもの

 > 磯村キャスターは,従来のNHKアナウンサーと比べると,遥かに「自由で」「カジュアル」な存在として振舞っていたのであり,そうした磯村の存在感をスタジオセットがより強調していたと言える。

 これだね。とてつもない自由(裁量)がなければ「プロトタイプ」はつくれません。研究開発も同じではありませんか。(棒読み)

 > 国内外から次々に入ってくる映像を映し出す21面のモニター,ニュース映像の編集コーナー,スタッフの打ち合わせ・作業スペースに加え,内外の通信社から配信される記事を閲覧できるパソコンやファックス,テレックス,コピー機などの機材がレイアウトされた。スタッフは実際にここで制作・編集作業を行い,放送中もその様子が映し出された(写真3)。

 > 「ワーキングスタジオ」は,スタジオ全体を巨大なニュース制作室(=ワーキングルーム)に見たて,ニュースの編集・制作・送出の様子が視聴者にも見える形にしたものである。当時アメリカでは,ニュース専門チャンネルであるCNNなどが採用していた形態であるが,日本では「NC9」が初めてであった。

 わあぃCNN。AIの話題をしながらわざわざそっちのCNNの話を持ち出しますかっ。…そこがいいんですよっ。(※感じかたには個人差があります。)

 > 1982年から採用された「NC9」のタイトルは,NHK初のCG(コンピューターグラフィックス)タイトルであった。これは米クレイ社のスーパーコンピューター,クレイ2を使って制作された三次元CGアニメーションで,光の反射を計算し画面上に再現する「レイトレーシング」と呼ばれる当時最先端の技術を駆使しており,内外で大きな話題を呼んだものである。

 わあぃレイトレーシング。

 > 気象庁の「アメダス(=気象観測システム)」の情報を視覚化した画面
 > 「NC9」では,本来文字ベースのこの「アメダス」の情報を放送用に視覚化し日本地図上にマッピングするプログラムを独自に開発し,放送で初めて用いたのである。

 いまをときめくナウでヤングな『データ通信!』でJSONみたいなテキストファイル…じゃなくて、スペースでパディングしたみたいなテキストファイルそのものが降ってくるぅ。視覚化を工夫しなはれというのはNHKに限らず誰もが迫られたことではありませんか。(棒読み)

 > スタジオのセットは,従来のように“作り物”であってはならない。すべてほんものの編集・送出・中継などの情報を集めた,ほんものの作業部屋とし,それを背景にキャスターが伝えるということにする

 > 当初は,視聴者のあいだにも抵抗感があり,「おもちゃ箱をひっくり返したような雰囲気で落ち着かない」「キャスターの後ろを人がウロウロしていて目障りだ」といった苦情も寄せられたという(木村太郎編,1985)。

 このフォーラムもそんな感じがしてきます。それは単に、ほかにそういうフォーラムがないというだけのことです。(※恐縮です。フォーラムといってもいろいろあらあな&公開されていないものは知りません。あしからず。)

 > NHKやTBSのニュース番組に「おれたちが作ったニュース番組を見せてやる」といわんばかりの視聴者不在の姿勢を感じていたという小田久栄門(報道局次長・当時)は,広告代理店の電通,企画・製作プロダクションのオフィス・トゥー・ワンとともに,新しいニュース番組の構想を練り上げていった(NHK編,2001;小田久栄門,2001)。そして,「中学生にもわかるニュース」「人間くさいニュース」「上から伝えるニュースではなくて視聴者が見たいニュース」「NHKに対抗できる刺激的なニュース番組」「テレビの生の機能や映像,音声などをフルに生かした立体的ニュース番組」などの基本コンセプトが固まり,「Nステ」が誕生する。

 …ぬふっ。われわれおおきくのけぞってみせながらぎゃふん。「おれたちが作ったニュース番組を見せてやる」って、こうですね。わかります。(※すべての演出は表現です。)

 > たまに下を見て『あのー,次はですね』って伝えるほうが僕は人間らしいと思った。

 > 「再開発された新しい街・アークヒルズのビルの最上階に,リビングも兼ねた久米宏のオフィスがある」という設定
 > ドラマのデザイナーとしての経験から,どんなセットもテレビに映ると“本物”らしく見えないと感じていた山内は,「Nステ」で最も本物らしさにこだわるべきものとして,「テーブル」に注目したという。
 > 材質についても「キャスターに焦点が合うと背景はフォーカスアウトしてぼける,だから手前こそ勝負」と考えて質感にこだわり,大道具ではなく家具メーカーに発注した。

 > 「Nステ」をよく見ると回答した大学生の視聴理由として,「面白い,楽しく見られる」といった娯楽性,「パネルや模型があったり,難しい用語や事件の経過についての解説があったりしてわかりやすい,理解しやすい」といった平易性があげられている(田宮武,1997)。

 > イラストレーター・山藤章二が描く似顔絵の表現力を,テレビ的に利用できないか
 > あえて電球をはめ込み,手で触れると項目が光るといった「手作り感」

 > 金属,ガラス,木材等を使って,建物の一角そのもののような「セットらしくない」空間が造形され,雨の日には窓の外に雨を降らせる,遠見(遠くのものを小さく描く),ビルの明かりが点滅するといった手法も用いられた。のちにスタジオ見学者が,スタジオが地下にあると知って一様に驚いたというエピソードは,「リアリティある空間」が造形できていた証左でもあろう。

 してやったり。(棒読み)

・「してやったり」とはにわ
 https://dictionary.goo.ne.jp/jn/98970/meaning/m0u/

 > [連語]《動詞「してやる」の連用形+完了の助動詞「たり」》うまくやりおおせた。自分の思いどおりに事を運んでやった。

 「デジタル大辞泉(小学館)」の語釈でした。(棒読み)

[3514]
 > 「もしゃもしゃするイス」(※近似値)のイメージです
 > 某やっほー之日本社とかにありそうだよね。(違)

[3656]
 > 「モル」と発音しさえすれば直感的にわかる言語を母語話者とする者とは違って、「モルとは何か」といって“まわりくどい”説明をしないと理解できないというのは、それだけで不利なことではあるよね。「1もしゃ」とか「3もしゃもしゃ」とかでもいいんだよ。…その発想はなかった!

・「もしゃもしゃする」⇒「たくれてるよっ💢」
 https://onayamifree.com/threadres/1711926/

 > 長袖の重ね着する時に、下に着てる長袖の袖の部分が、腕の途中で引っかかってしまうこと、ありますよね?

 東京と行き来する人しか使わないのでは&しつれいしました。


★(評価実験を検めます)


 再びPDFです。

 > For each label, 20 images are drawn from the generator. Then we manually check generated results and judge whether output images behave the fixed attribute we assigned. Table 2 shows the evaluation result.

 なんと「Table 2」で「Precision of each label」といっているのは、▼ランダムに(?)20枚ずつ生成させたのを『視感!』で正解・不正解を判じて「Precision」だけ(片側だけ)求めたよなどとぬけぬけとおっしゃる。やーい判じ物っ。(※見解です。)さすがにそれではいかんといって「FID score」が出てきます。えー、どれどれ?(※表現は演出です。)

 > One possible quantitative evaluation method for GAN model is Fréchet Inception Distance(FID) proposed by Heusel et al. To calculate the FID, they use a pre-trained CNN(Inception model) to extract vision-relevant features from both real and fake samples.

 > Then, they calculate The Fréchet distance(Wasserstein-2 distance) between two guassian distributions and serve the results as a measurement of the model quality.

 > To evaluate the FID score for our model, we sample 12800 images from real dataset, then generate a fake sample by using the corresponding conditions for each samples real images. After that we feed all images to the Illustation2vec feature extractor and get a 4096-dimension feature vector for each image. FID is calculated between the collection of feature vectors from real samples and that from fake samples.

※「Illustation2vec」は原文ママですが「Illustration2vec」ですね。(棒読み)

 > For each model, we repeat this process for 5 times and measure the average score of 5 FID calculation trails.

 うーん。「学習に使っていないデータ」と「学習して生成したデータ」の2群(34種類のラベルごとにそれぞれ2群)を同じ土俵で比べるために、いずれもアレして4096次元のソレにしてから、FIDを求めた(分布と分布の距離を調べた=ゆるく言えば相関係数のようなもの)わけですね、わかります。そして、そこで用いるラベルは「髪の色」と「瞳の色」をかけ合わせたやつ(!)…ええーっ。「ふっふーん! これを外すなんて××もいいところだわ」については[3575]を参照。

 > Figure 10: FID decrease and converge to a certain value during the training procedure

 (AIの)学習を終了してよいか(じゅうぶんに学習できたか)判断するために使うということで、提供したいサービスに対してじゅうぶんな質のモデルになっているかということまでは問うていないということでしょうか&しつれいしました。

 > There still remain some issues for us for further investigations. One direction is how to improve the GAN model when class labels in the training data are not evenly distributed. Also, quantitative evaluating methods under this scenario should be analyzed, as FID only gives measurement when the prior distribution of sampled labels equals to the empirical labels distribution in the training dataset. This would lead to a measure bias when labels in the training dataset are unbalanced.

※further investigations:さらなる検討。

 せっかく512種類のタグを推定してくれているのに即物的(表面的ともいう)な34種類しか使わないのが問題なのでは&しつれいしました。そこをきちんと日本語と数学で理解して英語で議論できるひとがいないとうまくいかないんですよ。主に日本語が難しいんだと思います。数学と英語ができてもね。(棒読み)

※データセットの網羅性(「バランス」)に難がある(「the training dataset are unbalanced」)と認めて、だからこそ確実な34種類のタグだけを使ったとも受け取れます。(※恐縮です。)

・「判じ物」とはにわ
 https://kotobank.jp/word/%E5%88%A4%E3%81%98%E7%89%A9-606486

 > 文字や絵画に、ある意味を隠しておき、それを当てさせるようにしたもの。また、その遊び。

 そら、さういふ判じ物でせう。(棒読み)

[3575]
 > …すみしょーっ!!

 > > あなたのゴルフボールがカップから1インチのところにある場合は、どのクラブを使おうが重要ではありません。何を使おうがボールは簡単にホールに入れられるでしょう。

 > こつん…からん。1インチは2.54cmです。(「ふっふーん! これを外すなんて××もいいところだわ」といいながらおっかなびっくり延々いつまでも目測ばかりし続けてみせるとGOOD!! …おっと、向かい風だっ。)

 しつれいしました。(棒読み)評価が甘すぎるというか、それはペーパーみたいなスタイルのPDFで報告するほどでもない、開発してすぐ確かめておしまい(できていなければ話にならないレヴェル)のことではありませんか。…ギクッ。「Illustration2vec」を使って、しかも4096次元ぜんぶ使ってというのが“甘い”(著者らにとって有利すぎる)んですよ。実際に人が見て判断することが必要で、可能な範囲でそれをプログラムにやらせるという2段階の発想をしていないといかんですばい。人が見たときに判断材料として採用しないようなものをぜんぶ使っちゃって、そちらのほうが支配的になってしまうのが4096次元ぜんぶ使うということではありませんか。(※見解です。)

 ▼色だけなら人の代わりにプログラムがHSV値で見て合格と不合格と判定不能を判定して、判定不能とされたものだけ人が見て判断するという、そういうことをするんですよね。これゼッタイ。

 ▼むしろ「year」でデータを分割して、絵柄の年代ごとの得意・不得意のようなことをお調べになってはいかがですか。(棒読み)

 ▼「Illustration2vec」を使って4096次元ぜんぶを使うなら、評価実験に使うラベルもそれに見合った抽象的な内容や複合的なものになっていなければなりますまい。まさに「weapon」とかね。そういうタグがついていればキャラクターは勇敢そうな顔をしているはずだ。…たぶんですけどね。(※あくまで1例です。…『勇敢そうな顔』って、どんな顔ですかっ!!)

 https://helpx.adobe.com/jp/photoshop/kb/cq10191500.html
 https://helpx.adobe.com/jp/photoshop/kb/cq10191500/_jcr_content/main-pars/procedure/proc_par/step_7/step_par/image_1.img.gif/cq10191500_07.gif

 https://www.slideshare.net/KatsuyaIshiyama/illustration2vec
 https://image.slidesharecdn.com/tagextractionwithillustration2vec-180226102159/95/illustration2vec-10-638.jpg

 > 画像認識でよく利用されているSoftmaxではなく、
 > Sigmoidが使われているところが肝心。

 「2値判定したい(要るの? 要らないの?)」んじゃなくて「なめらかな分解能で扱いたい(繊細なブレンドを楽しみたい)」ということでよろしかったでしょうか&しつれいしました。

 https://neorail.jp/forum/uploads/e08.gif

 > あなたは口を開けてAIを使っていればいいのよ。(違)
 > …えーっ!!(棒読み)

 角が生えるとはこのことだよ。きゃーこわい。(棒読み)

 https://thesaurus.weblio.jp/content/%E8%A7%92%E3%82%92%E5%87%BA%E3%81%99

 > イラッとする
 > 癪にさわる

 https://thesaurus.weblio.jp/content/%E4%B8%8D%E6%A9%9F%E5%AB%8C%E3%81%9D%E3%81%86%E3%81%AB

 > 不満や怒りなどをもっているさま
 > 欲求不満の

 「Illustation2vec」を使っているのはタグの推定と評価実験だけですけれど、この「Illustration2vec」ならびに本件AIで「白い画素」「背景」をどう扱っているのか…気になります! いわゆる自動選択(切り抜き)ツールみたいなことを(諸事情により略)わあぃアルファチャンネル!(棒読み)「白い画素」をそのまま「そこにそれだけの面積の白い画素が固まっているよ」「画像全体にこんなパターンで白い画素が存在しているよ」みたいな『要らん特徴量!』になってしまっていないでしょうか。本当でしょうか。そして、そういう処理ができているならサービスが出力する画像もアルファチャンネルつきでたのんます。(棒読み)

・かみつたセンセイ「ソフトマックス関数」
 http://ibisforest.org/index.php?%E3%82%BD%E3%83%95%E3%83%88%E3%83%9E%E3%83%83%E3%82%AF%E3%82%B9%E9%96%A2%E6%95%B0

 > 正規化指数関数 (normalized exponential function) ともいう.

 じゃあ(※)最初から「正規化指数関数」と呼ぶのを一般的にしておいてよ。…その発想はなかった!(みんなが「Softmax」と書いてるから書いてるだけ!!)なまらマックスバリュぜよ。…なまらマックスバリュぜよ!(違)

 > シグモイド関数の多変量版.多変量ロジスティック回帰や多クラスのフィードフォアワード型のニューラルネットの活性化関数として利用される.

 うーん。多変量(多次元)になったから正規化するときの分母も「合計の指数」ではなく「指数の合計」にしておこう(大巾に中略)そうしてやっと分子も指数にできるよ。(※曲解です。)

 そして「後ろから読む」!

 > オッズの対数をとったものになっているので対数オッズ(log-odds)と呼ぶ
 > シグモイド関数の逆関数である.
 > 事象Aが確率 p で,事象Aが生じない確率 1−p で起こるとき

 …剃刀! …じゃなくて、われわれうまうま(もっと違)『珍しさ』を抜き身の…じゃなくて生の数字で分数しちゃってから対数しといたよ。…わあぃ対数。(※表現は演出です。)

 https://goo.gl/maps/8pYnXc5A1tr

 輝け! やよい軒(※効果音「じゃーん」入りまーす)…じゃなくて。(※本文とは無関係です。)

 http://www.ntt.co.jp/news2016/1604/160425a.html
 http://www.ntt.co.jp/news2016/1604/image/160425an.jpg

 > 「“超自分専用”電柱番号札」のご案内

 > 普段何気なく目にしている電柱には、1本1本違う番号が住所のように振られていることを知っているか?
 > その表札的な働きをする電柱番号札がやってきた!
 > NTT超未来大博覧会の各展示ブースを廻って、電柱番号札の受取権をゲットしよう!
 > ニコニコ超会議2016特別バージョンの電柱番号札に、自分の好きな言葉を入れて、世界に一つだけの“超自分専用”電柱番号札をもらっちゃおう!
 > シリアルナンバーも入っているぞ。

 …NTT(持ち株)公式です。「岡本彦馬専用鉄道」については[3489]を参照。(棒読み)

 https://ja.wikipedia.org/wiki/%E3%83%8F%E3%83%B3%E3%83%AD%E3%83%B3%E3%81%AE%E5%89%83%E5%88%80

 > ダービー - 替刃のみ
 > ある製品に欠陥が見つかった場合、(大抵の場合、一般論としては)それは製造した企業が無能であるか愚かであるということを示しているのであって、消費者を困らせるために企業が悪意を持って欠陥を忍ばせたわけではない、という考え方を示すのに用いられる。

 …コレジャナイ。

 https://ja.wikipedia.org/wiki/%E3%82%AA%E3%83%83%E3%82%BA

 > オッズの対数は、その確率のロジットと呼ばれる。
 > オッズが低いほど、その事象が起きた場合の儲けが多くなる。

 起きにくいことはもっと起きにくいよ。だから対数だよね。(違)

・「コントラストAF」とはにわ
 http://camera.itmedia.co.jp/dc/articles/1009/14/news026.html

 > コントラストAFとは、撮像素子に映った映像をもとに、ピントレンズを動かしながら明暗差(コントラスト)が大きなところを探してピントを合わせる方式です。

 > 近年では検出アルゴリズムの進化や撮像素子画素数の増大(判断基準となる情報量の増大)、加えて顔検出機能の普及もあり(画面上に顔があると認識されればそこへ優先的にピント合わせを行える)などで高速化も図られていますが、レンズを動かして(フォーカスを動かしながら)AFエリアの輝度を把握しないといけない(略)

 じぶんでプリントするときの引き伸ばし機のピント合わせで特訓したよとはこのことだよ。顕微鏡の特訓をしたひとも同じではありませんか。(※恐縮です。)そんないつぞやの何かがいま、『AIが生成した画像!』を▼見た目だけで▼どのくらいピントが合っているのかいないのか、▼あとどのくらい動かせばピントが合いそうか、みたいなことを▼瞬時に読み取ることに役立つとはびっくりだよ。(棒読み)

 ▼『情報量が極端に多い』(=レンズでいえばピントが合っている状態の)画像がいきなりポンと出てきたときには、それは元の絵がかなりそのまま出てきたのではないかと疑うということです。逆に、多少のパラメータいじりではどうにもならんじゃろという破綻した画像の検出にも、▼『情報量が極端に少ない』(ぼやけている≒JPEGのいちばん大きいブロックのノイズが出ているみたいに見える)ということをもって判断していたのだとわかります。「極端」かどうかを見分けるときに一瞬で(じぶんの頭が!)処理しているとき、きっとシグモイド関数みたいなのを使っているんですよ。…たぶんですけどね。(棒読み)

・ウィキペディア「シグモイド関数(ゲイン5)」のイメージです
 https://upload.wikimedia.org/wikipedia/commons/thumb/b/b5/SigmoidFunction.png/1280px-SigmoidFunction.png

 本件AIが出力する生成画像の出力形式はPNGではございますが、何らかのテキタウな一律の圧縮率でJPEGにしてみせて、そのファイルサイズをば(略)なるほどねぇ。そういうことをユーザーに手作業でさせるようではサービスとして失格だよとはこのことだよ。(※見解です。)

※「使われている色の数」でもいいのかもしれません。本当でしょうか。

※デジタルカメラでいう「検出アルゴリズムの進化」とは、「証明写真」において「顔の画像が入ってくると前提する」に似た、「シーン検出」で処理を減らす(最初からアタリをつける)ということですね。本当でしょうか。

・…ホワイトバランスはともかくソニーです。(※キャプションは演出です)
 https://www.sony.jp/ichigan/products/ILCE-7RM3/feature_3.html

 > α9に搭載した新AFアルゴリズムを本機用に最適化。画像処理システムの刷新も寄与し、AF速度、精度、追随性能が飛躍的に向上。α7シリーズで初めて“4Dフォーカス”に対応し、野生動物などの素早い動きも的確に捉えて離しません。

 > 399点像面位相差AFセンサーと425点コントラストAF
 > 撮像エリアの縦約68%×横約68%の範囲をカバーする399点像面位相差AFセンサーに加え、コントラストAF枠を従来の25点から425点に多分割化し、AF精度を大幅に向上。

 わあぃ数字がいっぱい。ソニーがいっぱい…じゃなくて、そにー数字がいっぱいだいすき。(棒読み)

 > 被写体の瞳を自動検出してオートフォーカスする「瞳AF」機能が進化。

 ぬおー!!(以下略)『情報量が極端に多い』『情報量が極端に少ない』を一瞬で除外しながらランダムに生成を続け、そうじゃない画像が出たときに次にすることは『“人力”瞳AFみたいなの(仮)』デース&ですでーす!(※表現は演出です。)しかし、そこで何か違うことをするのかといって…ののんのん! 範囲を「瞳」の周辺に限って、改めて『情報量が極端に多い』『情報量が極端に少ない』を除外するんですよ。わあぃフラクタル。(棒読み)

・「デース&ですでーす!」の対極にあるとはこのことだよとはにわが知りたいです?(※疑問形)
 https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q1387348043

 > suと発音せずsと発音する
 > 母音の無声化

 その逆。…『その逆』といいさえすれば数学みたいだよねみたいなのキターっ!!(棒読み)「どぇs」「dues」くらいに力を入れてみせるだけで得も言われぬ(略)うーん!(※感じかたには個人差がありますってヴぁ!)

 https://thesaurus.weblio.jp/content/%E5%BE%97%E3%82%82%E8%A8%80%E3%82%8F%E3%82%8C%E3%81%AC
 https://dic.pixiv.net/a/%E3%83%B4%E3%81%81
 https://i.pximg.net/c/600x600/img-master/img/2008/09/04/17/31/12/1532281_p0_master1200.jpg

 > 言葉で表現できない程すぐれているさま

 どうすぐれているのか言葉で表現できない(※そもそも言い表す言葉がない)から「ですでーす!」や「デース」それに「ヴぁ」などの(略)ソレそのものを挙げて(代名詞みたいにして)言うしかないとはこのことだよ。「weapon」みたいなタグも同じことではありませんか。(※見解です。)

・「しゅらしゅしゅしゅ」とはにわ
 https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q1085538320

 …しゅらしゅしゅしゅ!!(※恐縮です。)

[3654]
 > これだね。…え? どこが鬼塚先生なのかって?
 > > 東急2000系に囲まれるという喜び

 > これだね。…実にこれだね!(※感じかたには個人差があります。)

 > > GTO素子を用いた日立製作所製VVVFインバータ制御装置(VF-HR-132形)を採用

 東急2000系に囲まれてご満悦の鬼塚先生…じゃなくて、いわゆる国民的(違)マリオ3みたいなゲームのゴールで花火があがる直前の「(ぶつっ)ずぴー(ででででーん)」という「ずぴー」という部分そのもの並びにその前後の変化が激しい感じ(ギャップが深い感じ=いきなり変わる感じ)が「東急2000系」くらいの世代のVVVFの音みたいだと、こういうわけです。それと同時に、種類が同じものが揃った(並んだ)場面に居合わせた喜びというものがだなぁ(略)ぜんぶ書くと長すぎるので(=面倒なので=)「これだね。」としか書かなくなっちゃって&なんかすんません。回生電力が効率よく消費できるダイヤだよね。(※表現は演出です。)

 > ファミコンだけどゲームだと思わないで音だけ切り出して短くループしてごらんなさいな。きっと同じ時代の「GTO」みたいなインバーター音に聴こえてくるはずよ。だって時代が同じなんだもの、しかたないわ。(※表現は演出です。)

 まったく別のものからかなり狭いもの(音)を切り出して並べてみせて「これだね。」みたいな&しつれいしました。わざわざ言葉で説明すると長くなるけれど、「これ似てる!」と気づくときに言葉なんてぜんぜん使わず一瞬でわかるんですよ。もっとこれだね。

[3061]
 > 正確な発音ができるかどうか、ということとはまったく別に、英語としてのリズム感といいますか、自然さのようなものを体得することが、「読む」(関係代名詞節などの区切りを、それこそ「関係代名詞節だから、えーっと…」などと「日本語」(の文法用語)を使って考えるまでもなく、自然にわかる)にも「書く」にも活きてくることだったのだと、後からジワリジワリとわかってきます。

[3566]
 > 予備校で教わる『文法用語!』『長文読解用語!』あまつさえ『センター試験用語!』みたいなのを駆使しながら(用語を援用しながら、受験生が頭の中できわめて言語的=表層的に)理解しているレヴェルでは、その程度だということなんですよ。

 > すらっと読んで一瞬でわかったり、あるいは「わからないところがあった(それはこことここと、そこよ)⇒わからないとわかったところを結びつけるだけでなんかわかってきたみたいな…気がする!」ということ自体が1パスの通読でポヤンと把握でき(以下略)

 そんな感覚です。

・わあぃ特訓中ーっ!(※恐縮です)
 http://www.fujita-hu.ac.jp/~teramoto/act2009/diary.cgi?Date=20090326
 http://www.fujita-hu.ac.jp/~teramoto/act2009/diary.cgi?download=20090326%2Etomoko%252Ejpg

 > 現像したフィルム(=ネガ)を引き伸ばして印画紙に焼き付けます。
 > 引き伸ばし機のピントを合せています。

 …何の研究室なんスか。

 > **研究室では、人工知能を用いた医用画像解析・コンピュータ支援診断技術の開発と、X線や光などのキャリアを用いた新しいイメージング技術の開発を行っています。

 おおー。(※恐縮です。)よさげなビデオボードの箱を掲げて記念撮影しておられる。(棒読み)

 > カラー光CT装置:
 > 可視光の「波長の計測が容易である」という特長に着目し、これまでモノクロ情報しか収集できなかった断層像をカラーで取得することができます。

 ぬおー…。

 > 人工知能を用いて医療情報の標準化・定量化をすることで、診断の新たな指標とするための検討も行っています。

 できるんでしょうか。…えっ。『できるんでしょうか』っ。(※しつれいしました。)

 > 撮像診断装置の進化により1回の撮影にて大量の画像データを短時間に得ることができるようになりました。しかし画像枚数の増大によって、診断する医師の負担は増加し続けており、それによる診断精度の低下が懸念されます。
 > コンピュータ支援診断技術(Computer Aided Diagnosis, Computer Aided Detection :CAD)は、コンピュータによって病変部と疑わしき部分を自動的に検出したり、病変部の大きさや良悪性などを自動解析する技術です。医師が、CADの出力した結果を、”第2の意見”として参考にすることで、読影負荷の軽減や、診断精度の改善などが期待されています。
 > 2014年から、人工知能の中でも高い能力を有する深層学習(ディープラーニング)の医療応用について精力的に取り組んでいます。

 > 2016.6.11 医用画像情報学会に掲載された論文に対し、内田論文賞を頂きました
 > 2018.6.18 電子情報通信学会から、学生研究奨励賞を頂きました。

 おおー。(※恐縮です。)

[3302]
 > > 【寺島オブザーバー】
 > > つくり手やコンテンツに対する尊厳、リスペクトをもう一度取り戻したい。

 …じゃなくて。

・「ソニーがいっぱい」公式の用例です(2004年3月)
 https://www.sony.co.jp/SonyInfo/IR/library/ar/arj04_full.pdf

 > クロード・ノブさんは、熱烈なソニーファンの一人です。

 > 自宅にもスタジオにも
 > 僕の周りにはソニーがいっぱい

 …わあぃソニーが「ソニーがいっぱい」。ソニーではないけれど、本件AI(の生成器)でパラメータを『追い込む!』ときのマンマシンインターフェースとして、ボタンが7つくらいでトラックボールみたいなの…なにそれ超絶そにーっぽいんですけど!!(※ソニーはイメージです。)

 https://www.4gamer.net/games/999/G999902/20160602049/SS/001.jpg

[3424]
 > 「ひなぎく支店」については先述の通り、かるた的なソレ(ATMや窓口で行員が操作する端末で、支店名の選択をなるべく少ない打鍵で確定するためのソレ=支店名のほうを工夫しておけばいいのだよ☆)だとの認識を共有いたしてきておるところでございます。

 遊びじゃなくてただちに労基署な案件(『職業病』を防ぐ義務がある=というお客さまの要請に応える製品をつくる)ですから本気で省力化しまっせ&打鍵数は少なければ少ないほどいいぞ。

 > 西船橋や新松戸のような乗換駅というのは、もっと、「ひなぎく支店」「アオイ支店」「カトレア支店」くらいの駅名(=地名が入っていないシンボリックな駅名かつ短くてユニーク)になっていてもよいのかもですよ。わあぃ上杉謙信(ウエストケンシントン)。

 …ほぅ。これがあの有名な「分倍河原の落書(ぶばいがはらのらくしょ)」ですか&そんなものはないっ!(棒読み)翻って本件AI「i丁目j番地!」みたいな随所に西船橋や分倍河原みたいな番地が無数にあるけれど、それを先に知ってから選ぶ手段が用意されてないのよとはこのことだよ。ほかのことにとりかかる前にそこをなんとかしてよねっ。(※見解です。)

 https://hon.gakken.jp/book/1230341500
 https://www.amazon.co.jp/dp/4053034159

 > 表紙と扉絵は***氏のイラスト。
 > 今までのビジネスで使う辞典では収録できなかった、ファンタジーやSFといったジャンルにも役立つような、いわゆる中二病っぽいことばも収録しています。

 https://images-na.ssl-images-amazon.com/images/I/51LoQRCM4kL.jpg

 …番地を間違えるとたいへんなものを呼び出してしまうぞ。セカイには抑揚を変えると意味が変わる言語もあってだなぁ&わあぃアメが降るでしょう!! …そっちは新世界(大阪)ですよぅ。(棒読み)

 https://ja.wikipedia.org/wiki/%E6%96%B0%E4%B8%96%E7%95%8C_(%E5%A4%A7%E9%98%AA)
 https://upload.wikimedia.org/wikipedia/ja/b/b2/%E9%80%9A%E5%A4%A9%E9%96%A3.jpg

[3560]
 > > 豆腐のカテゴリ強化
 > > 豆腐のカテゴリ強化

 …はひ!?

 > > スンドウブは、肉売場ではなく豆腐売場の方が良く売れる。

 > (店長みたいな人には)あくまで『焼き肉のなかま!』(※焼肉店のサイドメニュー!)みたいなのだと思われているということですね。「「紀文 調製豆乳」は「デイリー」「洋日配」「和日配品」のどこに…」([3171])も参照。店長よりパートのひとのほうが直感で正しく売り場を決めていけるのではないかなぁ。きのうまで「肉売場でスンドウブ」(※表記ママ)していた店長が研修1つで「これからは『豆腐売場でスンドウブ』だっ」(※表記ママ)と言い出すというのも、はいはいまたですかみたいなぁ?(棒読み)最初に直感で「豆腐売場にスンドウブ」して店長に怒られたパートさんが(声を出さずに)怒りますぜ。(※あくまで推察です。)

[3668]
 > わあぃサイドメニュー。▼「ごろごろチキンのトマトカレー(単品)」、▼「焼鮭」、それに▼「プレミアム牛皿」などのサイドメニュー。…えっ。

[3670]
 > > サイドメニューを使う
 > > サイドメニューを使う

 > サラダとかポテトとかスープとかアイスクリームだと思ったんですよ。…サイドメニュー。

 https://www.yayoiken.com/menu_list/

 わあぃサイドメニュー。清く正しいサイドメニューはこれや(どやぁ。

・「小顔ショート」「大人かわいい」「空気感たっぷり」「結婚式にも!」「丸み」「丸み」「サイドの丸み」「さらりと流れる」「ふんわり風を感じる」「甘揺れニュアンス」「やわくしゅ」「立体感」(大巾に中略)「ランダム」マンダムの見解です
 https://www.lucido-l.jp/library/
 https://www.lucido-l.jp/images/library/hairdesign59_process5.jpg
 https://www.lucido-l.jp/images/library/hairdesign23_process3.jpg
 https://www.lucido-l.jp/images/library/hairdesign42_process1.jpg

 …マンダムがランダム。うーん、ランダム。(違)既に完成された髪型でポーズと表情を決めて撮影された写真をなぞるようなことではなくまさにもしゃっとまきっとくしゃっと(以下略)マンダムする(※仮名)プロセスというものがですね(さらに略)「発生学から出立して、どんな具合に牛ができ、どんな具合に魚ができるかを究め」ということではありませんか。(※見解です。)

[3661]
 > たまこ斜め回線!!(違)

[3674]
 > …京都だけに。

・京都、京都です。(※キャプションは演出です)
 https://youtu.be/hfaBJbmUZUs?t=59s



 https://lohas.nicoseiga.jp/thumb/2532153i
 http://seiga.nicovideo.jp/tag/%EF%BC%88%CF%83%E5%9B%9E%CF%89%E3%83%BB%EF%BC%89%CF%83%E2%86%90%E2%86%96%E2%86%91%E2%86%97%E2%86%92%E2%86%98%E2%86%93%E2%86%99%E2%86%90%E2%86%96%E2%86%91%E2%86%97

 やむを得ず『眼帯なひと!(※仮名)』になっちゃったときにはこれやでー(どやぁ。クラスメイトから何かからかわれる前にじぶんでおどけてみせたまへ@いい時代になったのう。(※表現は演出です。)

・(参考)鉄道総研「たてる・ねかす・ふる・ゆする」の用例です(2009年7月)
 https://bunken.rtri.or.jp/PDF/cdroms1/0004/2009/0004005032.pdf

 むしろ東芝かもしれない&しつれいしました。(※東芝はイメージです。)とりたてて『AI!』とは言って(=宣伝して=)きていなくても東芝の事実上のAIって、歴史が長くないですか。(棒読み)

・東芝です
 https://www.toshiba.co.jp/iot/spinex/ai.htm

 > 東芝では、長年にわたり、社会インフラなどの分野でミッションクリティカルな課題に取り組み、多様なAI技術を開発してきた経験とポテンシャルを活かした、2つのAIサービス(以下略)

 > ディープラーニングの活用により、
 > 「識別」、「予測/推定」、「制御」の3つ

 これを簡潔に&真っ先に&真っ向から(略)言えるだけの積み上げがあるんですよ。(※見解です。)お客さまの業界に合わせて「制御」と呼んでいるけれど、これが「画像の生成」にあたる用途ですよね。…その発想はなかった!(ありますってヴぁ!)AIで何かしたいという企業や役所が最初に門をたたくべきはAI専業の会社じゃなくて大学でもなくて東芝。こちらの目的と予算がはっきりしていれば的確に“問診”してくれますぞ。たぶんこれだね。(※感じかたには個人差があります。)

 https://www.wired.it/gadget/computer/2017/11/22/intelligenza-artificiale-anime-cartoni-giapponesi/

 …うわぁイタリア語。Googleほにゃく先生かもーん。(…『ほにゃく』!!)

 > 日本の漫画を描く人工知能です

 > 既存のキャラクターからインスピレーションを得て作成された存在しないアニメキャラクターの顔を10分間連続して生成するビデオデモを公開しています。

 「存在しないアニメキャラクターの顔」を明示的に指定する方法を開発者だけが持っているんですかっ。(棒読み)ここまで順番にゼロから読み解いてきたいまのわたしたちならわかるはずだっ。(※見解です。)

[3343]
 > (実際の成り立ちとは逆向きに読み解いていくことになりますが)

[3638]
 > それを「読み解く」というのですよ。順方向で『通りいっぺん!』になぞっただけでは理解があやういんですよ。ま、それをなぞるとも順方向ともいうよ。(※表現は演出です。)実際には成り立たなかった条件や選択肢みたいなものも知っておきたいということなんですよね。


★「わたしたちがAIと呼びたいもの」=「主成分分析(PCA)」+「ファジィC-means(FCM)」!?


・(再掲)「AI開発プロジェクトは成功までに3回失敗する、でも決して折れてはならない」(2018年9月3日)
 http://www.itmedia.co.jp/enterprise/articles/1809/03/news010_4.html

 > データを整理整頓し、分析しやすいよう“質”を高めていく作業は、意外にも理解を得られていません。
 > AIにどのようなデータを与え、どのようなデータを出力させるのか。そして、そのデータによってどのようなアクションを起こすのか。

 > 「AIのアルゴリズムそのものでは、競争力の差は生まれません。(略)データサイエンティストよりも本当に不足しているのは、アノテーションを行って教師データを作り出す人や、SQLをたたいてデータを準備する人、そして、実務に耐え得るアウトプットやUIを設計し、周辺システムと連携できる人です。(略)最近の日本企業は、オフショアなど海外にエンジニアリングを頼っていることが多く、これらの業務に対応できる、いわゆる機械学習エンジニアが国内では圧倒的に不足しています」

・「参考奉仕における問診」(1967年11月)
 http://iss.ndl.go.jp/books/R000000004-I883853-00

 東芝のような会社あるいはAIの会社に頼むほどじゃないとじぶんでわかる神戸新聞社のひとさすがです。それは(上掲の記事で答えておられるように)図書館やインターネット(既によく編集された参考文献)を(効率的に)使いこなしているということにほかなりません。…新聞社ですからあたりまえですっ。(棒読み)

 そして、もはや忘れかけていたのではありますが。

[3409]
 > > 長女次女と自由研究の計画してたんですけど、学校のプリントには私たちが考えていたゆるふわな自由研究のカテゴリはなくて、一番近いやつは、「論文(問題方法結果考察文献)」「野帳(研究ノート)」「パネル(ポスター的なやつ)」の三点セットが必須、というやつで悪いけど無理だわ…てなりました。

 > (学校の)説明に不備があるから『無理!』と感じられるのであってですね(略)本来は「あたりまえのこと」するだけなんですよ&ぜんぶ、ふだんの学習に通じることなんですよ。…などと(略)。テーマがゆるふわなのはぜんぜんオッケーだと思いまーす。きちんとした手順と注意点さえ守れば必ず「3点セット」できるはずですよ&本当でしょうか。

 やっと「ゆるふわ」の見地に到達しました。(違)「社会調査工房オンライン」のような社会調査さえしていればとは思わないんですよ。何をどう数えればいいかもわからないフラクタルな現実に相対して、▼主成分回帰(PCR)に耐える(じゅうぶんに多変量で、ある条件のもとで網羅性のある)データセットの用意のしかたと、▼主成分分析(PCA)ならではの考察のしかた(主成分はぜんぶ考察に使へ〜)というものを勉強していくのが基本ではなかったんですかねぇ(※研究に使う道具の、いちばんいいやつを最初に使えるようにする=行列だから上級編だとか、そんなことを言っていてはいけない、の意)。テーマ選びにばかり注力して最終的に申し訳程度のアンケートを整数で数えてちょっと割り算するだけなんて、いくらなんでもあんまりだと、みなさまもっとあらかじめわかってから臨んでください。(※見解です。)

 http://www.nursessoul.info/nurse/socialresearch.htm

 > きれいに幅広くできています。
 > きれいに幅広くできています。

 そこじゃないでしょっ。(※見解です。)

[3587] あなたのいう「主成分分析」わたしのと違う(※意訳)
 > 「村上,2013」を参考にして「一次元構造が確認された」と考察してみせるという『型<かた>』が(少なくともこの分野では2017年にも)あるようだということでした。

 > 「主成分分析」は単なる数理的な操作であることが明確であるので、分野を問わず活用可能であるが、「因子分析」を行なわずに心理学的な実験結果や社会学的な調査結果などについて(「主成分分析」だけで)考察してはならない

 > (心理学なら)共分散構造分析の一連の手続きが、実験のしかたから考察のしかたまでをあらかじめ規定しているので、それに従う以外の方法をとってはならない

[3639]
 > ありもしない潜在変数に踊らされている、我々がいちばん潜在変数かもしれませんね。(棒読み)…そういう発想で見ていくと、この大ざっぱな、しかし潜在変数などというやわなものは考えず(=データ行列の特異値分解という方法でのみ扱い)、(現象を漏れなく表現しきるよう、変量を網羅的に用意したという前提で)すべて観測値(実測値)のみを用いて(大巾に中略)第2主成分以降ぜんぶを説明変数として第1主成分を説明させる回帰の、しかも「回帰木」(⇒「CART法」[3571])で網羅的に見ましょうというのは納得感の高い話であり、この「回帰木」(CART法)の考案者が後に「ランダムフォレスト(Random Forest)」を提案しているというのがすごくよくわかるのだと、たぶんこういうわけです。

 > 『次元の呪い!』などというキャッチーな表現にとらわれたわれわれ、わずか4次元や5次元の多変量データに対しても「2次元じゃないとヤダー」みたいな(略)ゲフンゲフン。ある程度の次元数では、むしろ『次元のめぐみ!』が生じているんだということを考えないといかんですばい。両手を掲げてめぐみんー! まだ爆発してない多変量データは爆発させたほうが中身が見えるようになるのだよ。(違)

[3670]
 > 授業で出てくる『耳に残る言葉!(…残していただくために言ってるんだよ?)』みたいなのに過度に支配されず、データそのものをよく観察しましょうということであります。そして、手元のもっともらしいデータは実はもっともらしいだけで現実をよく反映してはいないのではないかと疑うということであります。疑うというのは研究に必要な態度でございますから、何らうしろめたく思う必要はなく、「せっかくデータを集めてくれた人に悪い」というような『変な遠慮!』をしてはならないわけです。

 重回帰分析を数式を使って説明なんてしなくていいですから、いきなり「R」で特異値分解(SVD)を使う主成分分析(「prcomp」関数)や「CART®」を使っちゃいましょう。うん。数式で説明しなくてよければ社会学のセンセイも(卒論の)指導ができるよ。これゼッタイ。(※使いながら理解するという部分が非常に大きい、の意。)

・(再掲)筑摩書房「ちくま」9月号で上野センセイいわく(※リンク先は目次です)
 http://www.chikumashobo.co.jp/blog/pr_chikuma/entry/1373/

 > 「同じか違うか」はYes/Noの二つの値しかとりません。これを二値論理といいます。
 > AI(人工知能)とはこの大脳シナプス連結を模倣したものにほかなりません。どんなに複雑なAIでも、基本は二値論理の膨大な集積回路から成っています。

[3657]
 > 「負けました」と言えるためのルールや基準だけでなく、その判断にじゅうぶんな知識が、負けるほうにも必要だということですね、わかります。…あわわ! 勉強不足だとじぶんが負けたことすらわからないのよ(「滑稽だわ!」[3364],[3398])といいました。

[3542]
 > あくまで上野センセイによる理解はそういうことになっているということがわかるということです。実際、かなり粗雑なテキストマイニングが幅を利かせているといって…ギクッ。

 上野センセイが見聞きするであろう範囲のAI(らしきもの)はひどいシロモノであろうという推察にはございました。(逆伝播のある)AI(※NN)って、もっとおもしろいものなんですよ。たぶんですけどね。

 https://ja.wikipedia.org/wiki/%E3%83%90%E3%83%83%E3%82%AF%E3%83%97%E3%83%AD%E3%83%91%E3%82%B2%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3

 > 入力は、平均を0にし、主成分分析により線形相関を取り除き、分散が1になるように線形変換する。面倒だったら主成分分析は省略しても良い。

 …な!! なんですとー。(※駄菓子屋の袖を強くひっぱりながら棒読みしてみせるとGOOD!!)

 > 各次元の分散に差がありすぎると分散の小さいところに重みが集中しやすい。
 > 一カ所でも勾配消失を起こすとそれより下層は学習が進まなくなるため、層数が増えるほど勾配消失を起こす確率が増大していく。
 > 誤差を最小化して任意関数を近似するため、中心極限定理に従わないデータは学習できない。

 クリティカルな停止を起こさずベストではなくても安定してそこそこ使える汎用っぽいのプリーズっす。(※恐縮です。)神戸新聞社のひとがじぶんでプログラムしていわく(上掲)▼12の説明変数(※)で▼「記事にする/しない」の2値の目的変数(1変数)をロジスティック回帰(で得たモデル)で推定してみせるソレというのは、今後、主成分回帰(PCR)に取り組まれた場合に『次元のめぐみ!』を実感できそうな、ちょうどよい大きさ(複雑さ)の問題ではないでしょうか。

※しかし「打順」と「名前」は1変数でしょ。ま、「イメージです」とおっしゃるので画像の通りではないのでしょうけれど…なんだかなぁ。そういう項目をきちんと整えてなお12変量もあるのかどうか、ちょっとわかりません。(※恐縮です。)

[3583]
 > 行田市内のCDロムロム

 …じゃなくて。

[3674]
 > > 極振りしたいと思います。
 > > 極振りしたいと思います。

 > 「×撃は最大の防○」てゆーか先手必勝? ぜんぶ「ニトロ」…いえ、「すばやさのたね」…げふ…コレジャナイ。

 > envy-free:あっぷっぷー…じゃなくて、うらみっこなしよ。「envy-free」を「あっぷっぷー」の抑揚で発音してみせるとGOOD!!

・…JMP! JMP!
 http://www-mmds.sigmath.es.osaka-u.ac.jp/database/programme/1_94.pdf

 > 打者の得点能力を示す指標
 > 打撃成績の線形結合で示され, 係数の重みから成績の重要度の理解が容易

 攻守のうち攻撃側だけに着目する重回帰分析であります。

 > XR=0.5×単打+0.72×二塁打+1.04×三塁打+1.44×本塁打+0.34×(四球+死球−故意四球)+0.25×故意四球+0.18×盗塁−0.32×盗塁死−0.09×(打数−安打−三振)−0.098×三振−0.37×併殺打+0.37×犠飛+0.04×犠打

 …うわぁ。データセットの国や年代が変わればまったく変わるのではありませんか。(棒読み)

・(卒業論文)大阪府立大学とのことです(※しかしFC2はないじゃろ、の意)
 http://ymurasawa.web.fc2.com/nomura15.pdf

 > 豊田秀樹(2012)『回帰分析入門―Rで学ぶ最新データ解析―』東京図書株式会社。

 そこをちゃんとやったから合格なんだね。それをちゃんと指導できるセンセイさすがですぞ。(棒読み)

 http://ymurasawa.web.fc2.com/teaching.html

 > 経済学の学習に数学は不可欠です.数学が苦手な学生も多いようですが,クイズと思えば楽しいものです
 > これは大学教育の目的でもあります

 > ただし小説とは違うので斜め読みでは理解できません.鉛筆を片手にじっくりと読んでください.

 まさにこれだね。なんでもすらっと読めば読んだことになると思いこんでいるのが最初のつまづきの原因だがね。まずは読みかたからさね。(※見解です。)

 > 世の中のいわゆる「社会調査」は過半数がゴミであり,我々はゴミを見分ける目(リサーチ・リテラシー)を養う必要がある,というのが本書の主張です.レポートや卒論で,根拠となる事実が間違っていてはお話になりません.まずはこの本を読んでリサーチ・リテラシーを身につけてください.なお早稲田大学講師でもある(株)日経リサーチの鈴木督久氏による批判も秀逸です.
 > 自分の祖母に説明できない限り,何かを本当に理解したとは言えない.

 もっとこれだね。路地裏の竹内センセイだがね。「社会調査工房オンライン」の拡充に貢献なさってくださいとはこのことだよのほうなどおつけして&しつれいしました。(※恐縮です。)

 > 人間は判断力の欠如によって結婚し,忍耐力の欠如によって離婚し,記憶力の欠如によって再婚する.

 …ぐふっ。寝坊しないひと(「点消方」)や長く営業できそうなひと(デイリーヤマザキ)を確保するため既婚者という条件を付けて募集する例については[3552],[3590]を参照。睡眠まで会社に管理されるのと、そこは家族と持ちつ持たれつで起床しておもむろに出社するのと、どっちがいいですか? …えーっ。(※表現は演出です。)

 > 何がどうなっているのか皆目検討もつかなかっただろう.
 > 何がどうなっているのか皆目検討もつかなかっただろう.

 誤字が1つでもあったらそのページまるごと見なかったことにするので、見なかったことにします。…えー。(※事実です。)

 逆にいえば、わたしたちがちょっと使ってみたいと思っているのは『AIと呼ばれる人工知能!』というよりもまず、主成分回帰(PCR)やPLS回帰(PLSR)なのではなかったでしょうか。…その発想がなかった!(※「が」に傍点。)ことさらにAIがAIがー(↑)、あまつさえ機械学習に詳しいエンジニアがー(↑)、ということではなくて、学部の教養科目で「R」を使って主成分回帰(PCR)ができるようになるといますぐ役に立つという、(たったそれだけといえばそれだけではあるけれど=大学を卒業しさえすればデフォルトでそれができると保証されたらすごい=)そこじゃないんですかねぇ。重回帰分析で挫折したから主成分回帰(PCR)は夢のまた夢ということではなくて、最初から主成分回帰(PCR)すればいいじゃないですか。(※見解です。)

[3584]
 > AIと呼ばれる人工知能みたいなのに言及する前に主成分分析とファジィC-meansを理解されたいと思いました。(棒読み)

 …おっとファジィC-meansが『未履修!』だっぜ@なんてこったい。(※表現は演出です。)本件AI「Input(128+34)」というものを、ものすごく曲解すれば、主成分分析で得た主成分(128次元のベクトル)でファジィC-meansして得た(重複のある)クラスターが34個あるようなものだと(大巾に中略)…その発想はなかった!(棒読み)128×128の画像だから128次元のベクトルの要素が2つずつ(画像の縦と横)入ってるんだよね。わあぃテンソルてんそるぅ。「TensorFlow™」については[3514]を参照。数式を使いながらテンソルを鮮やかに説明してみせるなどの…無理ですヤメテクダサイ!(棒読み)しかし、だいたいこんなもの(※「だいたい」に傍点)という理解だけでライブラリは使ってよろしいといえば、それでいいのではないですか。本当でしょうか。

・たぶん同じことを考える勉強中のひとがセカイにあふれているはずだ。…小さくなったなぁセカイ!(※表現は演出です)
 http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.160.8211&rep=rep1&type=pdf

 > FCM-ICA-NN
 > FCM-PCA-NN
 > FCM-NN
 > PCA-NN

 > The back-propagation neural network (BPNN) used in this study is a three-layer feed-forward structure.

 …ぬふっ。このへんを勉強しているときがいちばんおもしろいってことじゃありませんか。(棒読み)

 https://www.jstage.jst.go.jp/article/fss/21/0/21_0_218/_pdf

 > 焼却炉内燃焼画像のサンプル内外れ値に対するロバストPCA

 参考文献が妙に的確ではありませんか。本当でしょうか。

 > 主成分画像,原画像,RGBのR画素値,G画素値,B画素値でのノイズクラスターへのメンバシップ値を表している.輝度が大きいほど外れ値としてはっきりと分類されることを表していてファジィなノイズ除去が行われている.

 ほぉお! 何をやっているのかがすごくよくわかるナイスな報告だと思います!(※恐縮です。)

 > 前半の5分間で赤色から黒に変化している部分がごみのドカ落ちによる不完全燃焼状態であり,その状態は3つのプロトタイプだけが順に変化することで表されている.

 お客さまお客さま!! いきなり「ドカ落ち」といわれましても困ります!(棒読み)しかしてベクトルを律儀に導出(略)2005年9月にはともかく、いまなら「TensorFlow™」をいきなり使うと「動き」(時間)方向もぜんぶいっしょに分析できるのではありませんか。(棒読み)

・「未履修」とはにわ(2006年11月15日)
 https://www.ipsj.or.jp/12kyoiku/Highschool/credit.html

 > 東京大学では,教養学部(駒場)1年生夏学期開講の必修科目「情報処理」の名称を2006年4月に「情報」と改めると共に,授業内容を変更した。また,新しく標準教科書を作成した。この教科書は,高等学校の普通教科「情報」の共通部分履修を前提とした内容となっている。

 > 京都大学では,高等学校における教科「情報」の必履修化を受けて,全学共通情報教育の内容の高度化の検討,および,「情報フルーエンシー」という観点からの全学共通情報教育科目の類別化などを行っている。

 > 今年度以降,各大学は高等学校での「情報」の必履修を前提として情報教育の内容を変更したが,「情報」未履修の学生が多数存在する大学では授業が成立しなくなりつつある。

 > 「情報」の基盤的教科としての存在意義が生徒や他教科の教員に認識されておらず,単に「コンピュータを使えるようになるための時間」のように考えられているため,他の教科に比べて著しく軽視されがちであること。

 > 「情報」を扱う情報科学,情報工学,情報教育,コミュニケーション,コンピュータグラフィックス,メディア,およびこれに準ずる全学科の入試において,「情報」を選択可能とする。その手段としては「数学・情報」「物理・情報」など複合的な(一定部分を「情報」の内容で回答できる)入試科目の設置も考えられる。

 画像というものがどのようなデータ表現なのかみたいなこともバーコードみたいなのも習ってから進学してこられるんですよね。(棒読み)

 https://www.ohmsha.co.jp/book/9784274219207/

 > 情報の科学的な理解の指導法
 > 問題解決とモデル化・シミュレーションの指導法
 > アルゴリズムとプログラミングの指導法
 > 情報検索とデータベースの指導法
 > 情報社会に参画する態度の指導
 > 情報システムと社会の指導法
 > 「総合的な学習の時間」との協調

 絵に描いた餅とはこのことかっ。…絵の話題だけに。(※恐縮です。)

[3657]
 > > 5.1.5 空間Durbin モデル

 > 「空間」だという以外はふつうに回帰分析なんじゃないんですか。本当でしょうか。

[3636]
 > > 9章 TensorFlowを立ち上げる

 > ここに「テンソルとは何か」みたいな記述があるんでしょうか。…ギクッ。MDSみたいなので散布図を1枚だけ眺めて「印象を述べ」るだけで何か的な結論しちゃってた残念な上の世代を“白い目”で見上げながら(…そういうのを「ジト目」というんですけど)だまって散布図行列にしてみせる(※あたしのほうがおねーさんなのよ)という方向が1つで、さらに、散布図を散布図行列にするのと同じようなことの直交するやつ(!)がテンソルでしょ(≒確率でいえば、『確率の確率!』みたいなのでしょ)。…その発想はなかった!(あくまで早合点です。)そこを踏まえて、テンソルで考えないといけないような計算をしやすいからTensorFlow™を使おうというのはいいと思うんですけど、ナウいから使うー(↑)みたいなのはいけないとおもいまーす。

 「テンソルとは何か」を詳細に学ぶということではなく、「TensorFlow™」が使えさえすればいいということでもないと思うんですよ。…あざっす。(※あくまで私見です。)

 そして…(※効果音「ピコーン」入りまーす)お待たせいたしました! 小平邦彦「怠け数学者の記」についてはこのあとすぐ!! …『このあとすぐ』!!(※恐縮です。)

・「このあとすぐ」の効果音はこちら
 https://ja.wikipedia.org/wiki/%E3%82%AF%E3%83%AD%E3%82%B9%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%A0#TBS

 > エンドカード映像からジングル音の『キンコーン』が鳴りながら画面が回転し、「つづいて(もしくは「まもなく」「○時から」)○○○○(番組名)」のテロップと共に次の番組の告知をする。

 > 1994年 - 現在 ジングル音が『チャラーン』に変更

 「チャラーン」と表記するほどチャラい音ですか&そうですか。(違)この音を指して「ピコーン!」と表記してもいいとは思いますよ。ええ。(※感じかたには個人差があります。)

[3525]
 > クラスタリングを行なうにあたって、コンピューターが威力を発揮するのは、変量が多い(データの種類が多い)場合です。

 > 数学の授業やペーパーテストでは、わたしたち自身が手作業で扱える範囲の計算もしくは計算式を用いた議論しかできません

 > コンピューターの威力の一端を垣間見るには、手作業での計算が非現実的となってくる程度の、じゅうぶんに多変量なデータを例題に用いることが望まれます。

[3675]
 > それでも道具の使い勝手(=『押したら手ごたえがある』、あるいは『動かない』のような=)としてイメージすることはそれなりにできると思われないでしょうか。先に道具とその使用結果という形で多変量データというものをイメージできてから、道具のしくみ(理論)を詳しく学んでいけばよいのではないでしょうか。

 わたしたちは入学や就職それに昇進などの試験で序列化されるためだけに数学を学ぶのではなく、もっぱら数学を使いこなすために学ぶのでなければなりません。じぶんでは使わないということになっても、使っている人が何をしているのかつまびらかに理解できるだけの素養を身につけていなければなりません。

[3657]
 > …あんちょこ!! そういうものがあるのを知ってなお使わない。これだね。仕事のために勉強しないといけないひとが使うものであって、学校にいる間には使ってはならないよ(=学校にいる意味がなくなってしまうよ)。

[3675]
 > > 「こうした道具の利用を低年齢のうちに教えないと、青年期になって必要な作業能力が身に付かない」と警告する。

 > 道具の使いかたというのはかなり身体的というか習慣的でもあるので、自転車やオートバイくらいのものだ(=自動車よりも難しい⇔だからといって習得が難しいとは限らない)みたいな&しつれいしました。

 1975年の時点で小平邦彦から見ての『電卓』というのが「あんちょこ」扱いである(=そんなものを小学校で使わせようなんてとんでもないと意見している=)のは当然として、しかし計算機(コンピューター)を使って統計をばというのは自転車くらいに早く身につけておかないといけないことではありませんか。

 もっとも、電子計算機がどれだけ発達して普及するかを1975年の時点で小平邦彦が予測しきれていなかったということで、それは確かに難しいことだと思われましょう。1995年から2005年の10年間にはPCというものがたいへん普及しましたが、その時にPCを導入するきっかけのあった世代や家庭のほかは、いま再びPCとは無縁な生活をしている、それは1985年くらいの水準に戻ってしまったということではありませんか。…ギクッ。

・小平邦彦「怠け数学者の記」岩波現代文庫(1986年5月、2003年4月4日)
 https://images-na.ssl-images-amazon.com/images/I/4102FSC6KHL._SX337_BO1,204,203,200_.jpg
 https://www.iwanami.co.jp/book/b256268.html

 > (127ページ)
 > 六〇年後にはどうなるか考えて見ると、(略)東京−大阪間には新新幹線、新新新幹線等、三〇本の新幹線が増設され、山手線は横に拡張できないから地上・地下合せて三〇階となり、毎日五〇〇ページの新聞が配達され、……。これは勿論(以下略)

 岐阜羽島!! …コレジャナイ。(※恐縮です。)

 > (141ページ)
 > 本郷通りも空いていて何処でも自由に横断できた。赤門から本郷三丁目に行く途中に青木堂という古ぼけた喫茶店があった。これが漱石の『三四郎』に出てくる青木堂であろうと想像していた。

 それ以上は確かめないんですね。(棒読み)

 > (138ページ)
 > 現在のアートコーヒーの所に一軒建ての理学部の比較的大きな教室があって

 …アートコーヒー!!(棒読み)

 https://www.s.u-tokyo.ac.jp/ja/story/newsletter/genba/04a.html

 > 海外の研究所には談話室にエスプレッソマシーンがおいてあることが多く誠にうれしい。そこでの議論は単なるおしゃべりのようにもみえるが,研究自体と関係がなさそうな会話にも研究のヒントが隠れている。数学者によっては孤独な作業をとことんやり,完成間際になって初めて同僚と議論する場合もあるが,孤独な作業と議論(時には激しい論争)からなるサイクルは同じである。数学者はテニスなどで気分転換をする人も多いが(筆者はしない)テニスコートでも結構議論しているのかもしれない。音楽や楽器演奏を嗜む数学者(筆者がそう,ただし聴く,観るだけ)もけっこういる。

 > 環境の変化も重要で,海外の研究機関に滞在したり,自分が出かけるかわりに海外から研究者を招聘して議論することで劇的に研究が進展することがある。国際会議も意外性のある研究者との遭遇というか出会い頭の議論で思わぬ成果が生まれることがある。数学は紙と鉛筆だけできるチープな学問という誤解があるが,上記の目的のためには図書や旅費など一定の資金は常に必要で,研究成果をめぐる収支効率は良い(と評価できる)。

 > 第一の意味の現場からの成果は数学の専門書のようにかっちりと表現されていないことが多く,作曲家のスケッチや見取り図のようなもので,第三者(数学的な素養が仮定されるが)が誤解なく理解できるような表現に鍛えあげることが必要である。そこで第一の意味での現場で得られた着想はある段階で同僚や院生などに聞いてもらい,議論をして客観的な表現に昇華させていく。そのさいに間違いや一人よがりの表現などが訂正されたり,結果の一層の飛躍につながることもある。そのような第二の意味での現場は,黒板と机のある部屋である。

 > 数学には一人で考えを積み重ねる孤独な現場があるいっぽうで,同僚らと議論する場が重要である。そのためには黒板と机があり誰でもが自由に出入りできる談話室が大事である(図:数理科学研究科コモンルーム)。数学はひとたび証明されれば絶対変更されない真理であるので過去の先人との対話のため紙媒体の本が充実した図書室も重要である。

 https://www.s.u-tokyo.ac.jp/ja/story/newsletter/genba/images/04/01.jpg

 > 筆者のグループは,高炉内の状態推定やマーケティング戦略の数理などに関する実用手法の開発などに関して産学連携の数学をここ10年来,新日鐵(現・新日鐵住金株式会社)や,花王株式会社と(以下略)

 再び小平邦彦です。

 > (119ページ)
 > (略)例えば曲線もバラバラに分解すれば点の集合になってしまうが、曲線を曲線たらしめているものはそれを構成している点ではなく、曲線全体のパターンである。数学を理解するには、その対象の大局的なパターンを感覚的に把握しなければならない。さらに数学の一つの分野の理論体系を理解するには、その体系全体のパターンを感覚的に把握しなければならない。
 >  現代数学の基礎が集合論であるというのは、現代数学のほんの一面に過ぎない。不幸にして現代数学は、その対象の感覚的なイメージを直接厳密に表現する方法をもたない。それで、例えば、曲線はいくつかの条件を満たす点の集合と定義することになるのだろう。極言すれば、集合論は現代数学を厳密に記述するための基礎に過ぎない。この意味の基礎を数学教育の基礎と錯覚した所に、数学教育現代化の根本的な誤りがある。分析した結果としての基礎と、教育の出発点としての基礎は根本的に異なる。同じ論法を物理学に適用すれば、物質を分析していけばすべての物質は素粒子から成り立っている。ゆえに物理の教育は素粒子論から始めるべきである、ということになる。素粒子論は明らかに難し過ぎるが、集合論は一見易しく見える。これが間違いのもとであったと思う。
 >  私は数学の教育は、数学の歴史的発展の順序に従って行うべきであると思う。進歩発展するものの典型は生物であるが、生物の個体の発生はその系統の発生を繰返すという。数学の教育も同様であって、論理的に基礎的な概念よりも歴史的に早く現われた概念ほど子供にとってわかり易い。

 小学校のうちに「数学史」を超高速®で1巡™してほしいんですよ。大人が便利そうに使っている道具を早く使ってみたいんですよ。…飽きるのも早いけれどもね。逆にいえばそれだけのことでいいのではありませんか。(※見解です。)

 > (143ページ)
 > 天文の萩原先生の講義を聴いたが、物凄いスピードでさっぱりわからなかった。講義が済んで小使室でお茶を飲んでいると先生もお茶を飲みに来られて「どうだ、君。わからなかったろう」と大得意であった。これで講義は必ずしも学生にわからせるためにあるのではないと悟った。

 難しい講義や試験をして序列をつけて選抜するためじゃー。学生に差がつかないような講義をすることは、本来、突出して優秀な学生を不当に過小評価し、本来、落第して当然の学生を不当に救済してしまうことにほかなりません。それはいかんですばい。大学は大きいぞう。いろいろな科目があるんですから、どれか1つは得意なのがあるはずです。それを早く見つけてくださいという意味もありますよね。(棒読み)

 > (132ページ)
 >  確率、統計等の応用的分野は必要なときに勉強すれば、大人になってからでも覚えられるものであって、そのときには生半可な入門的知識よりも基本的分野の学習で養った強靭な思考力、鋭い感性の方がはるかに役に立つのである。

 神戸新聞社のひとがじぶんでプログラミングみたいな話から強く実感されると思いました。国語の試験では常に満点でなければならぬ。国語の試験を難しくすることが難しいので当然です!(※見解です。古文や漢文を借りて優秀な者を見い出そうというのには限界があります。)

・現在の理学部 情報科学科です
 http://www.is.s.u-tokyo.ac.jp/isnavi/practice01-04.html

 ぬおー!!(以下略)

 http://www.is.s.u-tokyo.ac.jp/shingaku/highschool/faq.html

 > たとえば5次方程式には解の公式が存在しないことが証明されていますが、コンピューターを使って数値的に解を計算することは容易にできます。偏微分方程式や最適化問題などは、実用的な複雑さの問題であれば、コンピューターを用いなければ解くことができません。

 > グラフィックス、シミュレーション、機械学習などの計算には、微積分やベクトル・行列、およびそれらを発展させた解析学などの数学が欠かせません。また、データ圧縮や暗号化、検索エンジンやコンピューター将棋などの情報処理は、代数学や離散数学といった高度な数学に基づいています。

 本件AIみたいなものは、JPEGのような圧縮の技法と解析的な計算(モデルの作成)とが混ざっていますよね。じぶんで書こうだなんて思いもしないくらいゾッとしますよね。ええ。(※個人の感想です。)

 > カリー・ハワード対応という理論によって、「数学の証明を書くのとプログラムを書くのは同じ」であることが示されています。

 ほぉお!! そういうことだとは思ってましたけど具体的に「カリー・ハワード対応という理論」がどうのこうのみたいなことまでは教わる機会を逸していました。(※恐縮です。)

 https://ja.wikipedia.org/wiki/%E3%82%AB%E3%83%AA%E3%83%BC%EF%BC%9D%E3%83%8F%E3%83%AF%E3%83%BC%E3%83%89%E5%90%8C%E5%9E%8B%E5%AF%BE%E5%BF%9C#%E3%81%9D%E3%81%AE%E4%BB%96%E3%81%AE%E5%BF%9C%E7%94%A8

 > 最近ではカリー=ハワード対応が遺伝的プログラミングにおける探索空間のパーティションを定義する方法として提案されている。この手法は遺伝子型(システムにより進化するプログラムの木)の集合に対して(種と呼ばれる)カリー=ハワード対応する証明を索引付ける。

 おおー。(以下略)


(追記)

・KDDIが放つ驚愕の©「auおはなしアシスタント・レナ」のイメージです
 http://image.itmedia.co.jp/news/articles/1710/03/mm_rena_01.jpg

 神戸新聞社のひと(※仮名)がauショップで「研修生」してるよ。(違)てんちょーてんちょー! 屋根裏…じゃなくて、借りてきたシステムのせいで「この顔(仮)」にしかなりませんでしたみたいな空気を感じていれば事前に××があったはずだ。(※表現は演出です。)

※現在は終了しています。…うわぁ「終了のお知らせ」にも気づかなかったとはこのことだよ。だから「この顔(仮)」を(諸事情により略)事前に××があったはずだって、言ったじゃないですかぁ。…言ってないし!!(※恐縮です。)

 https://stickershop.line-scdn.net/stickershop/v1/sticker/10845381/ANDROID/sticker.png
 https://lohas.nicoseiga.jp/thumb/1957438i

 > 山田?誰ですかそれは?
 > 言っておきますけど私は

 > この業界ではよくあることだ

 http://fullmeta-iv.com/core_sys/images/contents/00000012/block/00000020/00000011.png
 https://www6.nhk.or.jp/special/detail/index.html?aid=20180901

 この回のナレーションが「この業界ではよくあることだ」のひとで(略)げふ。

 https://lohas.nicoseiga.jp/thumb/4229847i

 「weapon」って、こういう塗りかたとだぼっとした袖を指すタグなんですよね。(もっと違)

 https://stickershop.line-scdn.net/stickershop/v1/sticker/10845373/ANDROID/sticker.png

[3667]
 > …GPS! GPS! 山科から大津京へ一瞬で飛ぶGPS。高まる何か的なもの。ぼくらはどこへ向かっているのだろう(大巾に中略)…そっちは近江舞子ですよぅ。

・帆足さーん! …そっちはアスキーですよぅ。(2018年9月13日)
 http://ascii.jp/elem/000/001/740/1740615/
 http://ascii.jp/elem/000/001/740/1740610/06_261x261.png

 「筆者紹介」に学位が書いてないんですけど工学ですよね。(※恐縮です。)

 > 「説明できるAI」(Explainable AI、XAI)
 > 画像を対象とした質問に対し、システムが回答を行なうだけでなく、その回答にいたる根拠となる情報をあわせて出力するタスク
 > 以下の図では、同じ画像に対する異なる質問への回答を生成するために、画像の中で参照された場所が表示されている

 http://ascii.jp/elem/000/001/740/1740611/07_589x401.png

 > たとえば、レストランなどで食事を提供する際に「お口に合いますかどうか……」というような謙虚な一言を添えるといった簡単な気遣いを示すことも
 > たとえば、レストランなどで食事を提供する際に「お口に合いますかどうか……」というような謙虚な一言を添えるといった簡単な気遣いを示すことも

 そういう心持ちであります。しかし日本語がひどい。「例えば高級レストランを借り切ったパーティーで、ホストが「お口に合うとよいのですが……」と、料理の内容に不安がまったくないにもかかわらずあえてへりくだることも」みたいに書けんとですか(=レストランのひとはそんなこと言わないでしょ、の意)。(※見解です。)

 https://www.youtube.com/watch?v=GxyOsQrFXmA




[3659]
 > はくちょー!!
 > はくちょー!!

[3667]
 > 「白鳥…じゃなくて、近江舞子でございます。」付近(※推定)
 > …おそるべし近江舞子っ。(棒読み)

 しつれいしました。(棒読み)


この記事のURL https://neorail.jp/forum/3676/


この記事を参照している記事


[3584]

研究ホワイトボックス(30) ハイパー・ゼロ:「主成分分析」FAQ

2017/12/19

[3666]

【サラダ工場】「JR東海パック」(2015年12月)を「マウント富士」(1979年)ほかで読み解く(仮)【中津川温泉あり】

2018/7/28

[3680]

【PON】試しに「攻略情報」ほかを斬ってみる(横コツVer.)【自治医大グリーンタウン光高速ネットあり】

2018/9/13

[3685]

【DE10】「A列車 色がたりない」【レッドトレインなし】

2019/1/1

[3688]

【G4A】試しにA7「巡航速度」からのA9「巡航速度(後退)」を斬ってみる(再)【ろじたんフォークあり】

2019/1/1

[3694]

いま問う「(お好きな地形)EX(30倍)」(2010年3月・2013年2月)のココロ(計画編)

2019/3/1

[3695]

いま問う「(お好きな地形)EX(30倍)」(2010年3月・2013年2月)のココロ(運転編)

2019/3/1

[3701]

【A10】『シリアス路線』への招待

2019/4/1

[3707]

研究ホワイトボックス(35) 複雑なデータと「対話」するには〜郵便番号データを例に(R編)

2019/5/24

[3711]

「色覚多様性」と「ユニバーサルデザイン」

2019/6/4

[3712]

「理由の書き方」 / 「自分の考えの書き方」 / ほか

2019/6/4

[3739]

【A9・Exp.】「列車タイプ」を読み解く(再)【最大乗車率あり】

2019/7/15

[3740]

「リアリティ」はつくれる(再)

2019/8/1

[3745]

【自由研究】ここからここまで【AIどうでしょうつき】

2019/8/13

[3750]

線路24・運転24・信号24 〜せぶんてぃー? とぅー!!〜

2019/8/16

[3758]

【A9・Exp.】いま問う「コンテスト」のココロ

2019/9/6

[3803]

ぎんぎらぎん(後編) 「様々なアイデアから調和のとれた形態や経験を導くことの出来る統合力」とは【ムサビの博士後期課程あり】

2019/11/1

[3830]

「わからない」とは何か

2019/11/17

[3843]

いま問う「(お好きな地形)EX(30倍)」(2010年3月・2013年2月)のココロ(電車編)

2019/12/1

[3845]

Re:[3583] 「動く現物」の“魔力”

2019/12/1

[3862]

まだ見ぬ「ドリームかまち」を探して(かまち線路編)

2019/12/15

[3868]

まだ見ぬ「ドリームかまち」を探して(インサイト編)

2019/12/30

[3881]

【A9・Exp.】ニューゲームを自動分類するには(事前編)

2020/1/11

[3885]

勝手に「攻略サポートガイド」に寄せて(追補編)

2020/1/11

[3894]

【A9V6】「実際に列車を走らせ」ず「所要時間」を概算する方法【そしてA10へ】

2020/1/27

[3934]

「からコレ」とは何か(再)

2020/2/29

[3947]

「A9R」かく語りき(自)

2020/2/29

[4008]

「A列車で行こう9 駅名 つけ方」 / 「A列車で行こう9 楽しみ方」

2020/4/1

[4030]

PPPガッサンエル’72

2020/4/1

[4036]

きょうはA列車で理数探究。

2020/4/1

[4039]

開始当日に「実施中」と書く(談)

2020/4/1

[4116]

「A列車で行こう9 駐輪場 立体駐車場 タクシープール」の使いかた(開発者向けオプション) / 「ドライブイン」の「プロジェクト」化

2020/7/1

[4123]

【AExp.】ドル箱路線と集金マシーンの休日(再)

2020/7/1

[4130]

【自由研究】時には『該当なし』の英断を!(談)

2020/7/28

[4149]

リモートでも「法学B」は絶対に落とすな!(談)

2020/8/1

[4199]

きょうは学連ローマで体言止め。

2020/9/1

[4222]

【理数探究】再び「西荻窪駅にスタバがなぜできないのか」を斬る(再)

2020/10/1

[4229]

かわいい「ダイヤさくせい」(前編)

2020/10/1

[4248]

研究ホワイトボックス(42) A列車で理数探究

2020/10/1

[4268]

【Switch】最速で「A列車で行こう はじまる観光計画」(2021年)を斬る(新)

2020/10/16

[4269]

まさかの方程式で社会学(因数分解編)

2020/10/16

[4294]

子どもがひねり出す謎の『理路』(9)

2020/11/1

[4295]

子どもがひねり出す謎の『理路』(10)

2020/11/1

[4347]

「テレビ視聴時間の規定要因を探る」(2016年7月)を読み解く(前編)

2020/12/1

[4374]

岩波新書「東京の都市計画」(1991年12月)から「GMカタログ」「無限A列車」を経て「プチプチ」に至るルート(談)

2021/1/1

[4393]

きょうは新座で半ライス。

2021/1/16

[4403]

きょうは自己採点でキャベツ太郎。

2021/1/16

[4408]

きょうは片岡でココア。

2021/1/16

[4411]

きょうは金沢で半ライス。

2021/2/1

[4428]

京成電鉄「鹿島川専用乗継場」ほかを愛でる(談)

2021/2/1

[4526]

半蔵さんの甘栗モンテがとまらない。(再)

2021/5/1

[4543]

【東口直結】特異値分解とは何か(再)【多様な個性が響き合う】

2021/5/1

[4548]

いわゆるMDSとPCAの違い【t-SNEのBarnes-Hutアルゴリズムあり】

2021/5/13

[4596]

「日本語がおかしい」(再)【装着可能な猫の耳あり】

2021/6/1

[4613]

ふれねる「自由研究 数学」の銀(GIN)

2021/8/25

[4614]

ふれねる「自由研究 数学」の氷(HYO)

2021/8/25

[4615]

ふれねる「自由研究 数学」の言(GEN)

2021/8/25

[4628]

ふれねる「自由研究 数学」の忙(BOU)

2021/8/25

[4629]

ふれねる「自由研究 数学」の好(HAO)

2021/8/25

[4634]

ふれねる「自由研究 数学」の計(KEI)

2021/8/25

[4638]

ふれねる「自由研究 数学」の道(DAU)

2021/8/25

[4639]

ふれねる「自由研究 数学」の位(CRY)

2021/8/25

[4642]

50ヤード700円からの『勉強量』と『集客力』【メタ目次あり】

2021/11/1

[4645]

【うみべのプリン】現在の愛媛県四国中央市で「Z軸のある生活。」を愛でる(談)【定行のタルト】

2021/11/1

[4652]

美しいハーモニーを奏でるトランザクションの夕べ(後編)

2021/11/16

[4653]

ツールとは何か

2021/11/16

[4656]

なよ竹も鏡石もないけれど(前編)

2021/11/16

[4659]

「炭火焼鳥」と「ハイジ大好きフカフカ白パン」のゆうべ(タ)

2021/12/1

[4662]

【アイリッシュチェーン】ジャック・イン・ザ・ボックス・アンド・ターキートラックス【ギャスタウン】

2021/12/1

[4665]

きょうは堀田善衞でメルヘン街道。

2021/12/1

[4689]

【登戸VAN】ついにきたハッピーターンのターンとポテトパラダイス【逆たか菜巻あり】

2022/1/1

[4691]

【近鉄見習い】10枚切りココロンカードですし【ベスプラ】

2022/1/1

[4710]

時代はゼロトラストへ。(前編)

2022/4/1

[4727]

【OuDia】ジェイアール総研情報システムとNTTデータと統計数理研究所で「数理最適化」のイメージを探す(談)【朝倉書店とオーム社の違いあり】

2022/5/1

[4763]

いま問う「急行貨物列車」のココロ

2022/6/1

[4765]

超大陸五反田(カッコカリ)の壱

2022/6/1

[4766]

超大陸五反田(カッコカリ)の弐

2022/6/1

[4793]

【A9V1】いま問う「2人羽織」のココロとは(再)

2022/6/1

[4803]

【A9V2】「食べ放題でビール半額だ!」を読み解かずに読み解く(仮)

2022/7/1

[4819]

【A9V5】「今作だけの機能」とは何か 〜今宵はジェダイでナイト〜【転車台】

2022/7/1

[4835]

「下が北」の関東鉄道 / 「64bit専用」の思わぬ活用法

2022/8/1

[4836]

左から右へ縦書き 〜今宵もナイト〜

2022/8/1

[4840]

実例に見る日英対訳(30) 西武のロッカーと東京ロッカーズ

2022/8/1

[4861]

「配線略図」は『曼荼羅』(中編)

2022/9/1

[4874]

【ブライトン酢豚】いざ尋常に「エクスポ攻略」を斬る(談)【レホールソース】

2022/9/1

[4896]

最新最高「A列車で行こう9 MOD テクスチャ ダウンロード」最終解答(範)

2022/9/1

[4946]

歌って踊れる「CMYK」(再)

2022/12/1

[4963]

新訂いろいろなコンクリート【天覧山あり】

2023/1/1

[4981]

【ベクトル等尺性中心イラスト】「鬼塚先生」【私はゲームが大好き】

2023/2/1

[4982]

ベクトル新浦安とベクトル舞浜のまいおどり(踊)

2023/2/1

[4991]

試しに「A列車で行こう9とほとんど変わらないくらいに」を斬ってみる(談)

2023/3/3

[5024]

【A9V4】クローンマップ「砂浜とウォーターフロント」をつくるには(仮)

2023/6/1

[5028]

【A9・Exp.】トミックスの詰所の「ナイスミディパス」

2023/6/1

[5044]

実例に見る日英対訳(38) 「運転体験」と「車掌体験」

2023/7/7

[5045]

続々・「日本語がおかしい」(アミューズメント編)

2023/7/7

[5058]

きょうはサファリパークでライオンズ。

2023/8/1

[5059]

いま問う「コンパクトディスク」(1982年)のココロ【東映化学あり】

2023/8/1

[5060]

元祖「胸キュン」とカネヨ石鹸「重曹ちゃん」(2023年日本)

2023/8/1

[5062]

【全国学校図書館協議会選定図書】「サラダ記念日」(1987年5月)

2023/8/1

[5068]

左上にタイトルを書く。京浜東北線を拾う。(前編)

2023/8/1

[5070]

実例に見る日英対訳(40) 「富と名声」と「山吹色のお菓子」

2023/8/1

[5073]

時制はむずかしい! / 「じぇら」 / ほか

2023/9/1

[5075]

一人負け日本語圏の衝撃【ダークパターンあり】

2023/9/1

[5076]

時間の関係で「セカイがヤバい!」から「インパク音頭」まで(談)

2023/9/1

[5088]

【A9V6】習志野でベセスダを見習え(談)【そしてA10へ】

2023/9/1

[5093]

研究ホワイトボックス(50) ハイパー・ゼロ:「研究所」と「学者」と「錬金術」

2023/10/1

[5112]

【クレア】「ALT」とは何か(談)【吾妻八景あり】

2023/11/1

[5113]

「ラモー」と「ピアソラ」で味わいなおす「DQ3」

2023/11/1

[5115]

時間の関係で「王宮のトランペット」から「クープランの墓」まで(談)

2023/11/1

[5117]

【バレ】クヤヴィアクとサルタレロのエコセーズ【シチリアーナ】

2023/11/1

[5118]

【DQ3】「ほこら」を「トマゾ・アルビノーニ」で読み解く【イーハトーヴの風あり】

2023/11/1

[5120]

【DQ3】「桜田一家、ピラミッドへゆく」の巻(KAN)【サムソンとデリラあり】

2023/11/1

[5121]

きょうは西新宿でダウンサイジング。

2023/11/11

[5122]

そして「ポセイドンの夢とささやき」から「DQ3」へ

2023/11/11

[5126]

「画期的な新説」とは何か(ぷよぷよ編)

2023/11/11

[5127]

にんにく! にんにく! にんにく!

2023/11/11

[5128]

小池真理子「無伴奏」で全音「世界大音楽家肖像画集」を斬る(談)【自由ハンザ都市リューベックあり】

2023/11/11

[5129]

【114番】「石井好子とダーク・ダックス」と「ダイコクドラッグ」で「カノン」を読み解く【コンソメパンチあり】

2023/11/11

[5142]

ノイエザッハリヒカイトと「Hmgeaign」のよろこび(慶)

2023/12/1

[5149]

【A9・Exp.】「路線網を直そう」を直そう回(KAI)

2023/12/1

[5154]

「卒業」とは何か(前編)

2024/1/1

[5162]

きょうは木星でたい焼き。

2024/2/29

[5163]

【A9・Exp.】時間拡張・スケールと進行速度の違い(再)

2024/2/29

[5165]

【ポワティエ】DQ3「王宮のロンド」を「カール・フィリップ・エマヌエル・バッハ」で読み解くココロミ(試)

2024/2/29

[5181]

きょうはモトヤでほっぺ。

2024/4/1

[5199]

【御薬園】保育士必見の「お花紙」で「梅と好文亭」を読み解く【ウグイスつき】

2024/4/4

[5200]

【禁中新柳詩】自称「カナリアイエロー」を斬る【セルリアンブルーつき】

2024/4/4

[5203]

ホワイトバランスとは何か(談)

2024/4/4

[5208]

「八番」と「百番」の違い(カッコカリ)

2024/4/4

[5221]

きょうは鍛冶橋通りでウィキペディア。

2024/5/1

[5239]

コロナ社「土木・交通計画のための多変量解析(改訂版)」(2024年3月)こもごも(談)

2024/5/1

[5244]

【あのシステム】「ぼくのかんがえたさいきょうの京葉線ダイヤ」とは何か(談)【大みか】

2024/7/7


関連する記事


[4969]

研究ホワイトボックス(49) とにかく「主成分分析つき回帰木」するには tht - 2023/1/1


[4014]

きょうは川端康成で粗灰分。 tht - 2020/4/1


[4296]

子どもがひねり出す謎の『理路』(11) tht - 2020/11/1


[4221]

【スーパードライ】啓林館「理数探究」(2020年4月)しゃきしゃき【お酒ではありません】 tht - 2020/10/1


[4602]

【自由研究】2019年の水準には回復せず【主論文・野帳・掲示物・標本】 tht - 2021/8/16


[4626]

ふれねる「自由研究 数学」の写(SHA) tht - 2021/8/25


[4208]

3桁のオーダー / ウエストサイドソフトハウス / ほか tht - 2020/9/16


[4762]

【通快】「R with Excel」ーん tht - 2022/6/1






neorail.jp/は、個人が運営する非営利のウェブサイトです。広告ではありません。 All Rights Reserved. ©1999-2024, tht.