チラウラヤーン3号

その辺のプログラマーのチラ裏です。

紅→ジョイントミッション

スタジオ遊び。

紅を歌う。拍を数えるだけだとやっぱりライブ版に対応出来なくて難しい。ライブ版もカウントを書き出せば良さそう。

星野源の「恋」を同僚の女の子が歌っているのを聞いて覚える。歌えそう。

レベッカのフレンズのキーボードをやる。パッセージを弾きたいが鍵盤の位置と運指が分からない。

目眩は思ったほど出なかった。薬が効いてるみたい。

帰宅後、すぐ寝たいけど、気合を入れて、ジョイントミッション15分。立ち運動のみ。ストレッチタイプ。結構楽だけど、膝立ち系は腿にくるので、じんわり汗をかく。

golangの type FooType interface がよく分からない。インターフェースの実装を明示しなくても良い、とは?

type Dog interface {
    Walk()
}
type Bird interface {
    Fly()
} 

があったとき、

type Bee struct {}

func (b *Bee) Fly() {
    fmt.Println("boon")
}

type Human struct{}

func (h *Human) Walk() {
    fmt.Println("tokotoko")
}

とかやっても成り立つということ?DogとかBirdの識別名はあんまり意味はないってこと?

あ、いや、そりゃそうか。それはjavaでもpythonでもなんでも、名前付けは自由だ。んー、そうじゃなくて、あー、同じメソッドリストを持つものは同じインターフェースタイプになるのか、なるほど?

いや、でも、Aはsay(), move()、Bはsay(), fly() のインターフェースを規定している場合、say()しか実装してないCがあった場合、どちらのメソッド実装が満たされていないと警告を出す?

ワタリドリ

ワタリドリ

  • [Alexandros]
  • J-Pop
  • ¥250

イグニションポイント15分やった

帰宅後すぐにNIKE TRANING。

イグニションポイント: 軽いタイプ, 器具なし, 15分

15分、ビデオに合わせるだけだからか、なんとか続けられてる。まずは1週間続くとよい。

***

業務中また目眩がしたので、六本木ヒルズクリニックの耳鼻咽喉科へ。

検査の結果、

自律神経失調
首の筋緊張
頚椎動脈の血行が悪くなっている
暗闇で目を左、右に向けたとき、目線が下に流れていく (眼振もすこしある)
小脳の右用の機能やや低下
薬で様子見
運動し過ぎも良くない(しないよりはマシだが)→するならストレッチをちゃんと
食事、睡眠をしっかり

といった内容だった。

蓋の付いたゴーグルみたいのをつけて目の検査をした。座位と仰臥位。寝そべって右に向くと…うええ、酔って気持ち悪い…。 寝て右向いただけなのに。この検査で、目線が勝手に下に流れることがわかった。

その後、先生が自身の指を鼻につけ、前に差し出す。左右に振りながら。 私もその動きをトレースするように言われる。先生の指先を追って、自分の指先と合わせる。 右に振られたときがちょっと遅れる。なんで?追いつけない感覚というよりも、 指先を合わせた時には結果、遅れている、という感じ。勝手に遅れてしまう。

最近寒くなったので、自律神経への影響も出やすいかもしれないし、ストレスも関係ある、とのこと。 筋肉の緊張をほぐす薬、血行をよくする薬、酔い止めの薬を出してもらった。

薬を2週間続けて様子を見て、それでも直らないなら別の原因を探るとのこと。

一時的なものだといいなぁ。

***

帰ってきて運動の後、紅の歌パートを覚える。なんか、リズムのブロックが変則的なので難しい。こんな感じ。

​紅 - X JAPAN

※ 数字は小節数

ギターアルペジオ
4, 4
4, 4

I could not look back ... find the truth in me

間奏
4, 4
4

嵐吹くこの街が ... すぐそばにいるのに

間奏
4, 4

人波に消えて行く ... 溢れる涙に濡れ

間奏
4, 4
4, 4
4, 2
(break) 1
Dr 2
2
4, 4
4, 4

紅に染まった ... 叫びつづける

間奏
G 4, Dr 4

お前は走りだす ... すぐそばにいるのに

間奏
G4

紅に染まった ... 叫びつづけ
(る→く) れない に染まった ... もういない
間奏 3 → (4小節目で) Oh,
Crying in deep red

んー、こんな目眩がある状態で、スタジオ入りして大丈夫かな…音大きいしな…

明日には軽快しているといいなぁ。

紅 (LIVE)

紅 (LIVE)

  • X
  • ロック
  • ¥250

エクステンドユアレンジをやった

  • なぜか最近目眩がする。
    • 吐き気はない。
    • 地面が顔の横にある感じになってよろける。回転性?
    • 30秒以内に収まる。
    • 自律神経?
  • 仕事から帰った後、30分 エクステンドユアレンジ。
    • ほぼストレッチのみとはいえ30分続けるとじわっと汗かく。
  • 見積もり、やっぱり正確な時間はだせないけど、実装シミュレーションすると細かく実装内容がイメージできて安心感が得られることが分かった。
    • そして、予実はだいたい想定の2倍が自分の見積もり精度。
  • player view にslide bar 実装できた。
    • 思ってたよりも簡単だった。

Moanin'

Moanin'

びびる→縮こまる→頭が働かない→ミスする→時間かかる→ミスする→びびる

負のスパイラルだ。

自分みたいな人がいたら、どんなアドバイスをしてあげられそうか考えてみる。

自分の頭が悪くて本当に困るけど、何かできるはず。

今日もすごくヘラヘラしてしまった。

ワーキングメモリが少ないからすぐ忘れるし、反論しようと思っても当初の問題を忘れる。

でも、覚えようとすることや、ちゃんと進めようとすることや、分かりやすい説明をしようとすることを諦めるのはマズイと思うので、小さな成功体験を大事に積み重ねて行けるといいなあ。

帰宅後、コアクランチ2.0を15分やった

仕事から比較的早く帰ってきたのでボルダリングへ行こうと思ったが、睡眠不足なので、あまり遅くまで外出するのも嫌なので、家でトレーニングすることにした。

前3回とも中級の高負荷トレーニングを全うできず、1/3ぐらいでギブアップしてしまったので、今日は初級 器具なし 普通の負荷のコースを選んだ。

NIKE TRANINGの話です。

最初はスイスイこなして、やっぱ初級はぬるくて楽勝と思ったが、反復が始まったあたりから腹筋と腕がキツイ…そうか!「普通の負荷」ってこのぐらいなんだ!つまり、ジワっと汗をかく程度…なるほど。

「〜〜がキツイ場合は〜〜を床につけても構いません」的なナレーションが入るので、さすがにもう腹筋ちぎれる!って時は甘えさせてもらった。それでも休み休みセットを一つずつ完了させることを心がけてやった。

「コアを意識してぇ〜っ」の声で気が締まる。確かに漫然とやっても効果は薄くて、どこの筋肉を使い、どのように姿勢を維持しつつ動きを作るかを意識することで、より負荷は高まるが、ヤル気はアップする。キリッと。

なんとか1.5kg減ったことだし、明日また体重が減ってるといいなああああ。

あと、昨日と今日で気づいたのは「昼をしっかり食べる」こと。じゃないと、夜お腹が空いてだらだら食べちゃう。夜ご飯を抜くか減らす方が、昼飯を抜くより効果あるっぽい。

夜食べてもあとは寝るだけだもんね。それはまあ、太る気はする。

最近、自分が何にも出来ない中途半端な人間だと思うことが多くて心が折れそうだけど、こうやって汗流して、ホメオスタシスしたい。

ホメオ。

Romeo (Radio Edit)

Romeo (Radio Edit)

AVAudioPlayerからaveragePower取って波形にしようとしたけど、そういうことじゃないっぽい

stackoverflow.com

stackoverflow.com

AVAsset を使ってデータを読み込む、と。 なるほど、たしかに…トラック全長のうち、N msecごとに音量取ってグラフにしてもなんか違う気がしてた。 音声データの最小フレーム単位ごとに音量データ欲しいよね。そうしないと拡大縮小がちゃんと出来ないし、 再生位置とグラフ上の位置の対応も不正確になっちゃう。

こっちも使えるのかな。

AudioToolbox | Apple Developer Documentation

えーとあとはcoreaudioか。

んー、AudioKitとEZAudioのExample見てるとそんなことしなくて素直にそれらサードパーティライブラリを使えばはやそうだけど…

でも、でも、自力で

  • 波形が書ける
  • OpenGLで描画出来る

ようになったら、なんか嬉しいし、もうちょっと頑張りたい。

power, amplitude, intensity, level, gain, decibel の関係についても全然分かってないし、RMS (root mean square) についても知らなかったし。

Audacity Waveform - Audacity Manual

あ、でも下手に自分でやるより、EZAudioのソース参考にした方が良いかな…?いや、ちょっと自分でやって見て、分かんなかったら答え見る方がセオリー的にも良さそう。


んー、リアルタイムでプロットしていくのはあったけど、波形全長を描画してズームしたりするのはないっぽい…?

stackoverflow.com

ffmpeg -i input -filter_complex "showwavespic=split_channels=1" output.png
ffmpeg -i input -filter_complex \ "showwaves=s=600x240:mode=line:split_channels=1,format=yuv420p[v]" \ -map "[v]" -map 0:a -movflags +faststart output.mp4

おお、ffmpeg にもそういう機能が!ただ、再生シーク位置と同期するには難しそう…?

えーと、

  • AVFoundation /AVAsset
  • CoreMedia
  • CoreAudio

このへんを当たろう。

描画は、細かくベクタで線が引ければ、滑らかズームはできるのでは…。

やっぱり FDWaveformView/FDWaveformView.swift at master · fulldecent/FDWaveformView · GitHub が参考になるのかな。

Baby Maybe

Baby Maybe

  • ICE
  • J-Pop
  • ¥250

メモ

当時、会津大学には人工知能の研修室はなかったんだよなあ。それでも人工知能がやりたい、と先輩に言ったら「人工知能オワコンだよ」と一蹴されて。

世間で注目されてからしか動けないのは、小さな大学の弱みだよなあ。

中退の身で言えたことじゃないけど…。

当時、ARには可能性が感じられていて、そのような研究室はあった。

ARもVRも人工知能もグリッドコンピューティングも、計算機の性能が上がるたびにプレゼンスが上がる気がする。

コンピューター→インターネット→分散処理→人工知能と興味が遷移しては諦め、次はなんだろう。

教育はまだ興味ある。ed-tech。

家庭環境、生活も含めた学習環境とコミュニティの形成、出会い。

むしろ、出会いと教育・学習が来たりするのかな。

教育の世界にも深層学習のようなブレイクスルーがあれば…あるとしたら、それはなんだろう。

今の会社で高学歴の人たちと一緒に仕事してると、できる人とできない人には考え方や、器質的なスペックの違いがあるんだと思ったけど、その差を埋めることは可能なんだろうか。可能だとしたら何によって可能になるのだろうか。

そこにヒントがありそう