iPhone 12 Pro 購入記録
例年の購入記録です。
やっと届いた pic.twitter.com/XAT4BxjTPl
— stewie (@griffin_stewie) 2020年10月23日
iPhone をこうやって買うの初めてくらいなので開封も新鮮 pic.twitter.com/6TepjHGNyt
— stewie (@griffin_stewie) 2020年10月23日
こんな箱なのね pic.twitter.com/CvM3DRV0Fi
— stewie (@griffin_stewie) 2020年10月23日
薄い箱 pic.twitter.com/LuFSeJiIPO
— stewie (@griffin_stewie) 2020年10月23日
Air Pods Pro の1.5倍くらいの厚み pic.twitter.com/yD7tLScmcc
— stewie (@griffin_stewie) 2020年10月23日
綺麗な箱です pic.twitter.com/MXwgBeTyGB
— stewie (@griffin_stewie) 2020年10月23日
綺麗な子 pic.twitter.com/BDpDYI7MZ4
— stewie (@griffin_stewie) 2020年10月23日
付属品少な! pic.twitter.com/5CcCrWUSVk
— stewie (@griffin_stewie) 2020年10月23日
白背景で見にくいけどこんだけ pic.twitter.com/1uklG2MmvE
— stewie (@griffin_stewie) 2020年10月23日
ディスプレイをカバーするものって今までシンプルなフィルムだった気がする。今回から?紙っぽいものになっててハードウェアの説明も兼ねるようになったのか pic.twitter.com/li0O7FKpxF
— stewie (@griffin_stewie) 2020年10月23日
100Kオーバーの黒板です pic.twitter.com/umO5VocmQr
— stewie (@griffin_stewie) 2020年10月23日
サイドはテカテカなので指紋認証出来そうなくらい指紋が付きます! pic.twitter.com/YWb1O4qWVk
— stewie (@griffin_stewie) 2020年10月23日
SIM トレイは右真ん中から左下に移動 pic.twitter.com/qekjGhcZwW
— stewie (@griffin_stewie) 2020年10月23日
角張った分持ちにくくてデカく感じる。縦は物理的にも大きくなってるので余計にそう感じるのかな?
— stewie (@griffin_stewie) 2020年10月23日
プリインのOSバージョンは 14.1 (18A8395) だった。
— stewie (@griffin_stewie) 2020年10月23日
今から復元開始。
— stewie (@griffin_stewie) 2020年10月23日
サイドのハードウェアボタンの収まり具合と触り心地は角型ならではで好き。
— stewie (@griffin_stewie) 2020年10月23日
比較しても右手で握りこんだ時の親指の届き具合が全然違うな。
— stewie (@griffin_stewie) 2020年10月23日
サイズと見た目なら 12 mini のブラックが良さそう
— stewie (@griffin_stewie) 2020年10月23日
Pro mini があったらそっちが欲しかったかもしれないな。
— stewie (@griffin_stewie) 2020年10月23日
そういえばまだ MagSafe と合体させてなかった。復元が終わったら試そう。
— stewie (@griffin_stewie) 2020年10月23日
Beta 版だったから復元ができないので出直し
— stewie (@griffin_stewie) 2020年10月23日
LINE の引き継ぎをやろうと思っても iCloud に接続していないと言われて何もできない...
— stewie (@griffin_stewie) 2020年10月23日
もう LINE のバックアップは諦めた。ほとんど使ってないし。SIM を先に新しい iPhone に差したりしたのがまずかったんだろうか?
— stewie (@griffin_stewie) 2020年10月23日
いっこうに復元終わらないやっと半分超えた
— stewie (@griffin_stewie) 2020年10月23日
もう一息
— stewie (@griffin_stewie) 2020年10月23日
— stewie (@griffin_stewie) 2020年10月23日
LINE はなんかわからんけど、もろもろ引き継がれてた。ただし、iCloud によるバックアップは依然できないまま。
— stewie (@griffin_stewie) 2020年10月23日
記念撮影
反省点
今年は準備が足りなかった。来年はちゃんとする。
iPhone 12 Pro 予約記録
先ほど予約が完了しました。2020年10月16日(金) の様子を記録として残しておきます。
これまでは以下に列挙したようにヨドバシカメラ梅田で予約を行っていました。
- iPhone 11 Pro 予約記録 - griffin-stewieのブログ
- iPhone XS & Apple Watch Series 4 予約記録 - griffin-stewieのブログ
- iPhone X 予約記録 - griffin-stewieのブログ
これは例年ソフトバンクの割賦購入をしていたというのもあってそうしていました。今年は一括で買おうと思い金額を調べると Apple から直接買う方が Softbank から一括で買うのと比べて3万円弱も安く買えるということで、Apple から買うことにしあした。
これまで iPhone 3G から毎年買っていて初の Apple Store での購入。
事前準備
事前に、以下をやっておいて準備万端。(と思っていたら....)
- Apple Store で欲しい商品の細かいコンフィグも含めて設定してお気に入りに登録
- 支払いに使うカードがちゃんと現在使えるものになっているか確認
- 配送先住所の確認と変更
予約日当日の予約開始時間
Apple Store アプリで 21:00 の開始時刻から以下を繰り返し。
- Apple Store.app を起動
- 「もうすぐです」的な画面が出たら、アプリキル
Apple Store.app を使っているのはアプリの方が Web よりも混雑なくアクセスできるというこれまでの情報の蓄積からそうしています。あとは、ブラウザや iPad など並行してトライする人もいますが僕は器用じゃないので iPhone の Apple Store.app に集中しました。
通常通り起動したらお気に入りとして設定しておいた注文を開いて確定に進む。
発注のためのボタンが出ないなと画面中探し回っていたら、Apple Care の選択ができていなかった。ここで時間ロス。
Apple Care の選択をしたら購入に進むためのボタンが出てきたので進む
決済方法が
- 通常
- Apple Pay
になっていたので Apple Pay の方が早いかなと思って Apple Pay にしたら、支払いに使用するクレジットカードが使いたい物でないことが発覚。戻ろうとすると「注文をキャンセルするか?」と赤文字で出る。躊躇したけど意を決してキャンセルして支払いメソッドを「通常」に変更。
ここでまたしても罠。クレジットカードのセキュリティ番号を入力しろと。 慌てて物理カードを出して入力。
無事に発売日初日 10/23(金) の配送予定ですみました。
あとは発売日当日に何時頃配送されるかだ。
来年の自分に向けたチェック項目
予約当日の午後くらいから Apple Store の各種設定画面にはいけなくなるので前日までに以下の作業を事前に済ませておくこと
- Apple Store で欲しい商品の色や容量などの細かいコンフィグも含めて設定してお気に入りに登録
- Apple Care の選択漏れのため購入ボタンが出ない問題があったので全項目ちゃんと設定しているか確認すること
- 支払いに使うカードがちゃんと現在使えるものになっているか確認
- 注文時にセキュリティ番号の入力が必要になるので現物をちゃんと用意すること
- 配送先住所の確認と変更
また、可能なら Apple Pay でも決済できるように住所や配送先、支払い可能カードの確認をしておくともっとスムーズだろうと思う。この場合はおそらくセキュリティ番号の入力は不要になると思われる。
obs.camera で iPhone をウェブカムにする
前回のエントリ では α6100 をウェブカムとして使った例を紹介しました。今回はそれ以前に試した iPhone をウェブカムにする方法を紹介します。前回のエントリと同様のセットアップで映像の入力ソースが変わるだけですので基本的な準備・設定はそちらを参照してください。
あえて書きますが iPhone を macOS のウェブカムとして使うのであればここで紹介する方法よりも
Webカメラをスマホで高画質にしてみませんか?|Nobuki Inoue|note
の方が安くて便利そうなのでそちらをおすすめします。
obs.camera
僕が当時試したのはこちらの iPhone アプリとそれと連携する OBS プラグインです。
obs.camera - Use your iPhone camera to stream with in OBS Studio
クロマキー合成をしたかったので OBS を使うことは決まっていたので当時の僕の知識では OBS との連携を謳っているこのアプリが便利そうに見えました。
有料アプリで1600円くらいするので結構高い方だと思います。
公式マニュアル USB での接続方法 に書かれている通りにやれば使えるようになります。
Wi-Fi 経由の接続方法もありますが、obs-mac-virtualcam プラグインを使うためにターミナルから起動した OBS では obs-ndi プラグインが認識されませんでした。ダウンロードしてきた OBS には認識されていたので何らかの設定かパスの問題かなと思いますが深入りしませんでした。
tips
iPhone を認識しない場合は iOS Camera
ソースのプロパティで Refresh Devices
や Reconnected to Device
を実行するか、物理的にケーブルと Mac とを再接続してみてください。
まとめ
obs.camera は動作も安定していると言えませんしおすすめしません。
- 有料アプリの値段
- セットアップのやりやすさ
- 安定感
これらを含めて Webカメラをスマホで高画質にしてみませんか?|Nobuki Inoue|note で紹介されている EpocCam がおすすめです。OBS に取り込む方法も簡単です。適切に 映像キャプチャデバイス
ソースを追加するだけです。Wi-Fi でも有線でも簡単に接続できます。
α6100 を macOS で Webカム化(HDMI キャプチャなし、クロマキー合成あり)して Google Hangouts でビデオチャットする方法
まえがき
【紹介している仕組みが ver 1.0.0 になったので一部更新】
前回のエントリでビデオチャットの品質向上として映像の質について言及しておいてその内容を書いていませんでした。今回はそれについて書きたいと思います。
ここで紹介する方法はアルファ版の OSS ソフトウェアを使います。使用にあたって機材が故障してもすべて自己責任でお願いします。
基本的にソフトウェアエンジニア向けの内容です。Git, Homebrew, ビルド etc というキーワードを聞いてピンとこない方はやめておいた方がいいと思います。このあたりがわからない方で「パソコン側の負荷を下げてつつ、ミラーレス一眼をウェブカムにしてクロマキー合成したい」という方は ATEM Mini の在庫が復活したころに札束で勝負することをおすすめします。*1(やったことがないけど多分できます)
目的
画質の向上です。
普段のミーティングなら表情などのビジュアル要素も重要なインプットとして使っているはずです。ビデオチャットになるとその情報の質がガクっと落ちてしまいます。そうなると効率が落ち、疲労感が出る(失った情報を別の要素で埋めようとして疲れる)のでどうにかしたいと思いました。
(実際には相手の画質が良くないと自分は結局疲れるんですが、まずは自分からと言うことで)
Before な環境
自宅には書斎があります。ただし、物干し部屋と兼用です。
窓を背にするようにL字型デスクを置いてあります。当然、洗濯物は窓側に干しています。つまりそのままビデオチャットをすると後ろにある干している洗濯物が丸見えになってまずいです。L字型の机の短い方に MacBook Pro を置くとカメラは壁向きになるので余計なものは映りません。ただそこに MacBook Pro を置くためには外部モニターとの接続をはずさないとケーブルの長さ的に足りません。普段はそちら側に iPad などを置いているのでそれをどかさないといけなくなりとても面倒な状況でした。
やりたいこと
- 後ろにある洗濯物など生活感が出るものは映さないようにしたい
- どうせなら zoom の virtual background みたいに何かを合成したい
- そして画質を上げる
やり方を考える
背景処理
そこそこ小綺麗なものが置いてあれば良いカメラとレンズで良い感じぼかしてやれますがそうもいかないので遮蔽物を置きます。WFH がいろんなところで本格的に実施され始めたころに @fladict さんが Twitter でつぶやかれていたグリーンバックの背景布 + スタンドを紹介されていたのでそれを買いました。
グリーンバックだけだとクロマキー合成ができなかったときに違和感があると思ったのでシンプルに黒幕も同時に買いました。後々この黒を買っていて良かったのは、グリーンだけだと若干記事が透けます。冒頭で説明したとおりデスクに向かった時に背後は大きな窓があるため日差しが入り込むので透けやすいのですが、この黒と2枚重ねにすることで透けを防止できました。
画質
昨年夏から飼い始めた猫の ぐりこさん を撮影するためにα6100を持っています。あとは、家にいっぱい転がっている iPhone。iPhone のカメラは下手なコンデジよりも性能が良いって言われることもあるので悪くないと選択だと思います。
今回は、α6100 でトライしてみました。
対策
@goando が使われている SIGMA fp は USB Video Class(UVC) に対応しているので USB 接続するだけで macOS がカメラをウェブカムとして認識してくれます。僕が持ってる α6100 (おそらくは他の SONY α 系も同様の模様)は USB で macOS と接続はできますがそれだけではウェブカムとしては認識してくれません。Elgato Cam Link 4K や ATEM Mini などの製品は、この製品に input としてカメラからの HDMI 出力を渡してあげると製品からの USB 接続は UVC として macOS が認識してくれるためそれだけで Web カムとして使えます。
ウェブカムとして認識してくれると何がうれしいかと言うと、ほとんどのカメラを使ったソフトウエアで汎用的にその映像が使えるところです。
などなど。実際のビデオチャットサービスに縛られないのは凄くありがたい仕組みですよね。
残念ながら現在 HDMI キャプチャデバイスと呼ばれるようなこの手の製品は軒並み品切れしています。僕も買おうかどうしようか迷っていた頃には在庫があったのですが決心をした頃には時既に遅しということで持っていません。ですので今回紹介する方法は HDMI キャプチャデバイスなしで行います。
今回の僕の目標にクロマキー合成が含まれているのでそれらを踏まえて以下のようなソフトウエアを使っていきます。
- Camera Live
- OBS
- obs-mac-virtualcam プラグイン
僕の環境はこちら
- MacBook Pro (15-inch, Lage 2016)
- macOS Catalina 10.15.4
- SONY α6100
Camera Live
このソフトウエアは、Syphon と呼ばれる映像をソフトウエア間で渡すための仕組みを使って USB 接続した α6100 の映像を他のソフトウエアに渡してくれるものです。Syphon は VDJ 界隈ではポピュラーなものらしいです。Camera Live 自体は Syphon server として動作するので Camera Live が配信する映像を受け取る Client が必要になります。
OBS
OBS(Open Broadcaster Software) と呼ばれるソフトウエアを使います。このソフトウエアは twitch や YouTube などに配信するためのソフトウエアです。カメラ映像やテキスト、静止画などの様々な映像ソースや音声をミックスすることができます。
OBS は Syphon Client を映像入力として扱えます。つまり α6100 の映像を Camera Live を通じて OBS 上で表示ができるようになります。
また、OBS にはクロマキー合成を行う仕組みもはじめから入っています。
obs-mac-virtualcam プラグイン
このソフトウエアは OBS のプラグインです。OBS はデフォルトで各種ライブストリーミングサービスにそのままライブ配信できる機能があります。ローカルに動画ファイルとして残すこともできます。ただ、ビデオチャットサービスにはそのまま配信はできません。ビデオチャットサービスで使うためには Virtual Camera(仮想カメラ)として OBS で扱っている映像を出力する必要があります。obs-mac-virtualcam プラグインはそれを可能にしてくれるプラグインです。
Virtual Camera(仮想カメラ)というのは僕も最近知ったものですが、有名どころだと Snap Camera が Virtual Camera として振る舞っています。Snap Camera は FaceTime Camera などのカメラ映像を加工し、加工した結果を Virtual Camera として提供することでビデオチャットサービスにバーチャル背景や美肌効果が加わった映像を利用できるようにしています。
準備
Camera Live をダウンロード
Releases · v002/v002-Camera-Live
こちらのリリースページから新しいものをダウンロードします。現時点では 13(Alpha)
が1番新しいのでこれをダウンロードします。13(Alpha)
をクリックすると Assets のところに Camera.Live.zip
があるのでこれをクリックしてダウンロードします。
ダウンロードして解凍したらアプリケーションフォルダに移動させましょう。
OBS & obs-mac-virtualcam のビルド のインストール
obs-mac-virtualcam プラグインが順調に開発を重ね公式版になりました。以前は自分で OBS も含めてビルドしないといけなかったためエンジニアじゃない人にはハードルが高かったですが簡単な手順でインストールできるようになりました。
- 最新の OBS をダウンロードしてインストールしてください
- 最新の obs-mac-virtualcam プラグイン の pkg ファイル(拡張子が pkg に鳴っているファイル)をダウンロードしてください
- obs-mac-virtualcam プラグインの pkg ファイルをダブルクリックしてプラグインをインストールしてください
- もし OBS を起動している状態であれば OBS を一度終了し、再度起動させてください
- Web カムとして認識させたいソフトウエアがあればそのソフトウエアも再起動させてください
- 例えば、Google Chrome で Hangouts (Meet) を使ってビデオチャットしたい場合は Google Chrome を再起動させてください。
個人的にはプラグインのインストールが終わったら macOS 自体を再起動させるのがいろいろと手っ取り早くトラブルも少なくなるのでおすすめです。
普通であれば OBS を公式サイトからダウンロードして云々というステップなんですが、obs-mac-virtualcam プラグインが開発途中のため自分でリポジトリをクローンして手順にそってビルドしないといけません。
こちらのビルドガイド を上から順に実行するだけです。普段から macOS 上で開発をしているような人であれば Xcode や Homebrew などもインストールされていることも多いと思うのただひたすらビルドガイド通りにターミナルでコマンドを叩いていきます。
実際にやってみる
1. まずは α6100 の設定を開いて「USB接続」を「PC リモート」に切り替えてください。
2. 次に α6100 のモードを動画撮影に切り替えます。
3. α6100 と MacBook Pro を USB ケーブルで接続します。
4. Camera Live を起動します。 この段階では Camera Live の真ん中上部の表示は No Camera になっていると思います。
5. α6100 の電源を入れます。 Camera Live に USB PTP Class Camera と表示され*2、真ん中上部の表示が Active になっていれば大丈夫です。
6. 次に OBS を起動させます。
7. 起動すると自動構成ウィザードが表示されますので "はい" をクリックしてください。
8. 「録画のために最適化し、配信はしない」を選択した状態で "次へ" をクリックします。 *3
9. 基本(キャンバス)解像度を 1280×720 に変更してください。(最近他の解像度もサポートされたようですが当時のサポート解像度の 1280×720 が無難です) FPS はデフォルト値でいいと思います。"次へ" をクリックしてください。
テストが走るのでしばらく待ちます。
テストが終わったら "設定を適用" をクリックします。
OBS の初期設定が終わったら早速カメラの映像を OBS 上に表示させましょう。
11. 下側にカラムが5個表示されていますが、左から2番目のソースカラムにあるプラスボタンをクリックしてください。
12. いくつかある項目の中からサイフォンクライアントを選択してください。名前を入力するためのシートが表示されますがここでは「サイフォンクライアント」としておいてください。
13. サイフォンクライアントのプロパティ設定ウインドウが表示されます。ソースをクリックして [Camera Live] USB PTP Class Camera
を選択します。
この段階でプロパティウインドウにカメラからの映像が表示されていればOKです。もし映っていないようならばカメラとの接続か Camera Live の状態を確認しください。特に USB ケーブルはものによっては充電用のものがあります。必ずデータ転送ができるものにしてください。
14. サイフォンクライアントのプロパティ設定ウインドウではあともう一つ設定します。「透過を許可」のチェックを有効にしておいてください。このチェックボックスの設定を忘れているとクロマキー合成がうまくいきません。 チェックボックスも有効にしたらプロパティウインドウを OK を押して閉じてください。
15. 出力サイズに対してカメラの映像を映し出すレイヤーのサイズが合っていませんが一旦スルーして、クロマキー合成を早速行います。*4
16. ソースカラムに追加したサイフォンクライアントレイヤーを右クリックして「フィルタ」をクリックしてください。 フィルタ設定ウインドウが表示されます。
17. 左ペインの下にある+ボタンをクリックしてください。
18. いくつか表示される選択肢の中から「クロマキー」を選択してください。フィルタの名前はデフォルトの「クロマキー」のままで結構です。もうこの段階で背景のグリーンが透過されていると思います。(事前にグリーンバックは用意しておいてくださいね) 細かい設定値がありますが、個人的にはデフォルト値のままでも十分だったのでそのままにして「閉じる」をクリックしてください。
19. 背景画像のレイヤーを追加します。
先ほどと同様にソースカラムの+ボタンをクリックして「画像」を選択してください。レイヤーの名前はここでは「背景画像」としておきます。 こちらも先ほどと同様に画像レイヤーのプロパティ設定ウインドウが表示されます。 ここでは背景画像として使用する任意の画像を設定して OK をクリックしてください。
20. そうすると設定した画像*5が前面に映ってしまいます。カメラ映像を手前に持ってきたいのでソースカラムに並んでいるレイヤーをドラッグ&ドロップして背景画像を並びの一番下に移動させます。
21. あとは、表示されているコンテンツの位置を微調整します。
ここまでできたらもう少し。
映像を Virtual Camera 化します。
22. OBS のツールメニューにある Start Virtual Camera
をクリックします。
もし、メニューバーがクリックできなければ適当な他のアプリにフォーカスを切り替えてからもう一度試してみてください。
23. Virtual Camera 化できているかを試すために QuickTime Player を起動してみてください。
【追記】: 僕の環境では QuickTime Player では OBS Virtual Camera は認識されても実際のカメラ映像が出力されない問題がありました。原因はまだ分かっていませんが、Hangouts などでのビデオチャットは問題なく動作しています。【追記終わり】
QuickTime Player を起動したらショートカットキー ⌘+⌥+N を押しください。カメラからの映像が QuickTime Player 上に表示されると思います。録画ボタンの横になるシェブロンをクリックして入力ソースのなかに OBS Virtual Camera
を選んでください。これで OBS 上のプレビューと同じ映像が QuickTime Player 上に表示されていれば成功です。
もし、入力ソースのなかに OBS Virtual Camera
が表示されない場合は QuickTime Player を再起動してみてください。
24. Google Hangouts を使ってみます。
Hangouts を開いてビデオハングアウトをクリックします。実際の通話相手は別に必要ありません。招待するためのウインドウとかも適当に閉じてください。OBS の映像が出てこない場合は Hangouts のカメラ設定を変更しないといけません。右上のギアアイコンをクリックして「ビデオ」のところから OBS Virtual Camera
を選択してください。OBS Virtual Camera
がない場合はブラウザの再起動をしてください。
tips
- OBS の映像を Virtual Camera として認識されない場合はビデオチャットサービスを再起動する(ブラウザベースのサービスならブラウザの再起動)
- OBS の
Start Virtual Camera
実行以降に起動したアプリケーションじゃないと Virtual Camera を認識してくれない模様
- OBS の
- クロマキー合成をする時には背景画像は背景の幕に近めの色が良い
- 赤っぽい背景画像にすると境界線が緑っぽく見えたり、グリーンバック自体についているしわや影のある部分が綺麗に合成されない
この方法のメリット・デメリット
メリット
- ミラーレス一眼カメラを使っているので圧倒的に画質がいい
- しっかりとクロマキー合成ができて、部屋の背景を気にしなくてもいい
- 現在入手困難な HDMI キャプチャデバイスがなくてもできる
- ソフトウエアが無料
デメリット
知識が必要エンジニアじゃない人にはちょっと難しい
- 動作が不安定
特に Virtual Camera を認識させるためには先に OBS の Virtual Camera を動かしておかないといけない
- CPU 負荷が高くなる
- ごくまれにヒドいときは日本語入力がままならないですw
まとめ
今回紹介した方法に行き着くまでにもっと手軽な方法がないかなどいろいろと試してみましたが、結果的にこの方法がバランスが良かった感じです。
個人的なニーズをフルに満たすためには ATEM Mini を買うしかないと思っています。
興味のある人はチャレンジしてみてください。他にも良い方法があれば教えてください。
参考リンク
- SIGMA fp Webカム化とリグ遊びへの誘い|Go Ando / THE GUILD|note
- 言わずもがな goando さん。SIGMA fp いいですね
- 小細工なしに良いカメラで良い映像路線
- 高画質で映える顔してないけど|ino|note
- 同じく SIGMA fp
- 小細工なしに良いカメラで良い映像路線
- デジタル一眼カメラをウェブカムにしたら想像以上にゆるぎなかった話|柿元 崇利 / U-NEXT|note
- 無料&キャプチャーボード不要!α7R IIIをMacのWebカメラとして使う手順まとめ | ガジェットタッチ
- こちらは α7R Ⅲ を使った事例
- Camera Live と CamTwist の組み合わせ
- Webカメラをスマホで高画質にしてみませんか?|Nobuki Inoue|note
- みんな持ってる iPhone を活用している事例
- 僕が iPhone で試した時の方法とはまた別の EpocCam というのを使ってます。こっちの方が良さそうです。
- 僕が試した方法はまた元気があれば書いてみたいと思います。
- 書きました → obs.camera で iPhone をウェブカムにする
- ビデオ会議で画面共有してる間も顔を見せたい - Qiita
- カメラとは関係はないですが、ビデオチャットをやっているとあるあるの問題に対して OBS を使って解決しよとされている
- CamTwist
- 僕の例の OBS + obs-mac-virtualcam プラグイン のセットを置き換えるソフトウエア
- ちょっと古い
- 仮想カメラ化は安定している
- クロマキー合成の質が好みじゃなかった
- Ecamm Live - Powerful Live Streaming Platform for Mac - Ecamm Network
- CamTwist の現代版という印象
- Pro プランにすれば僕のやりたいことはすべてできそう
- 月20~25ドルはちょっと払えなかった
リモートワーク環境の改善
コロナ禍においてリモートワークを新たにはじめた人は多いのではないでしょうか。COVID-19 感染拡大を防ぐために僕も今はリモートワークをしています。
リモートワークになると普段のやりとりはチャットツールが主軸になりますが、やはり人と声で会話するとなるとおのずとビデオチャット(Web会議)を使うことになります。ここで改めてビデオチャットで重要になる要素を整理してみます。
- 映像
- 音声
- 通信速度
通信速度は映像や音声を継続的に送受信するため重要です。安定して高速な通信ができればビデオチャットの質(体験)が良くなることが期待できます。逆に貧弱な回線では音声がブチブチと途切れたりや映像が止まったりすることが発生する可能性があります。
音声は聞く方と話す方がありますが特に重要なのは話す方、マイクです。ビデオチャットをしていると音声が悪い人と良い人がいますが重要なはマイクだと思います。
最後に映像です。僕は仕事でもプライベートでも MacBook Pro を使用しています。ビデオチャットをする相手も多少モデル違いはありますが9割方は Mac です。Mac には FaceTime Camera が内蔵されています。最新の MacBook Pro 16インチでも現代においては若干ショボい 720p FaceTime HDカメラ が搭載されています。お手軽に使える利便性はありますが画質は言わずもがな悪いです。特に暗い場所ではザラつきがヒドいです。
ビデオチャットはこの3要素の質が悪いと疲労度が格段に上がるように思います。途切れ途切れの音声では脳内でなんと話したのかを補完しようとしたり、余計な質問をしたりします。プレゼンしているのを見ている最中に映像が止まってしまいプレゼン資料がめくられないまま会話がどんどん進んだりするとわかりやすさが半減してまた余計に疲れます。
これら3要素を可能な限り向上させることで、リモートワーク時のビデオチャットの質が上がりストレスを軽減できると思い自分なりに改善していきました。
通信速度の改善
通信速度の改善にはプロバイダーやバックボーンなどの要素、有線 LAN か無線 LAN などの接続形式、使用しているコンピュータ自身の処理速度など複雑です。プロバイダーなどは住環境に左右され改善しようにも簡単にはできない部分で難しいです。僕の環境は SOFTBANK 光を使っています。NURO 光よりは遅そうですが気になるような速度でもないです。一時期は当時の最新 iPhone でも 10Mbps 時もありましたが、IPv6 にするだけで大幅に改善されました。
今のマンションではルーターは家の中心にあるリビングルームにあります。僕の作業スペースである書斎はドアで仕切られているのと距離が遠いこともあり無線 LAN を使っていました。
通信速度は時間帯などによっても左右されますがやはり無線 LAN は遅いのでは?という思いがありました。ものは試しとリビングに MacBook Pro を持っていき有線で接続すると概ね 1.5倍から2倍ほど速度が上がりました。
今まで分かっていたものの、書斎で MacBook Pro を触ってる時間は多くもないし特に困っていなかったのでスルーしていましたが、リモートワークで平日の日中ずっと使うことやビデオチャットの品質向上を目指すため一念発起し有線 LAN 化を行いました。
リビングにあるルーターから書斎までは15mほどケーブルが必要でした。飼っている猫や見栄え、掃除などの生活の邪魔にならないことを考えて配線しようとするとモールで綺麗にケーブルを隠す必要がありました。角の処理を綺麗にしようと思うと曲がったモールが必要なのですが、ここで初めてデズミ、イリズミなどの言葉を知りました。
LAN ケーブル敷設にはなんだかんだで8〜9時間くらいかかってしまいました。
我が家は賃貸なのですが、賃貸でも綺麗に原状回復できるようなモールの貼り方を行いました。(実際に綺麗に戻るかどうかはまだ知らない...)
賃貸でモール敷設で紹介されていた PP クラフトフィルムという厚さ0.2mmほどの透明なフィルムをすべてのモールの下地に使いました。というのもモールにあらかじめついている両面テープは結構強力らしく、壁紙に直接貼ると剥がす時に壁紙もろとも剥がれる場合があるそうです。両面テープなしのモールが購入できなかったので、モールはフィルムに貼り付け、フィルムを壁や天井に張り付けます。フィルムは壁紙にはホッチキスで留めます。ホッチキスの針は細いのであまり目立たないです。僕の場合、天井はホッチキスで留めました。なのでますます目立ちにくいはずです。天井以外の壁はすべてこちらの両面テープで止めました。
ニトムズ はがせる両面テープ 壁紙用 15mm×1.5m T3971
- メディア: Tools & Hardware
剥がした後に水拭きすると接着面も綺麗に剥がせるそうです。厚みがある分ボコボコした壁紙でもしっかり貼れました。
有線LAN化の恩恵は期待通りで、この記事の執筆時点で
- 無線LAN
- 130 Mbps
- 有線LAN
- 240 Mbps
倍まではいきませんが苦労した甲斐がありました。有線になることでこれまで無線LANでまれに発生していた突然の切断もなくなり快適です。
音声の改善
MacBook Pro 内蔵のマイクは音質もさほど良くないです。指向性の弱いマイクのため周りの音を良くも悪くも拾いすぎて騒々しかったりします。さらに現行 MacBook Pro の前のモデルはバタフライキーボードでタイピング音が結構します。その音もガッツリ拾ってしまうためミーティング中にメモを取っているとなかなか耳障りです。
内蔵マイクがイマイチなら Air Pods Pro があるじゃないかとなるのですが、こちらは装着感と音を聞くという点では好みなのですがマイクが貧弱です。カスカスの音になります。
とはいえそこまでしっかりお金をかける気もなく、調査に時間をかける気もなかったので無難に会社で広く使われていたこちらの商品を買いました。
ゼンハイザー PCヘッドセット ヘッドバンド型両耳式/ノイズキャンセルマイク PC 8 USB【国内正規品】
- 発売日: 2011/12/16
- メディア: Video Game
マイクにノイズキャンセリングがついているので音質が格段によくなります。ヘッドセットにマイクがついているのでタイピング音も以前ほど耳障りにはなりにくくなっています。Ear Pods や Bose QC20 のようなイヤフォンについているマイクは顔から離れている場所にあるので小声で話すと全然音がクリアに入りませんが、このヘッドセットなら多少声が小さくても大丈夫です。
個人的に難点なのは付け心地があまり良くないところです。ミーティングが連続してしまうと長時間付けることになりますが、そうなると挟むように固定されているので耳が痛いです。その点は Air Pods Pro や Bose QC20 のようなインイヤーヘッドフォンが快適ですね。
Bose QuietComfort 20 Acoustic Noise Cancelling headphones - Apple devices ノイズキャンセリングイヤホン ブラック
- 発売日: 2015/06/26
- メディア: エレクトロニクス
ゲーミング系のヘッドセットだと高機能で長時間付けていても耳が痛くなりにくそうで良さそうです。
もしくは、RODE VideoMicro みたいなマイクか NT-USB Mini を置いて音は Air Pods Pro あたりでも良いかもしれないと思っているところです。
【国内正規品】RODE ロード VideoMicro 超小型コンデンサーマイク VIDEOMICRO
- 発売日: 2015/10/27
- メディア: エレクトロニクス
【国内正規品】RODE ロード NT-USB Mini USBマイク NTUSBMINI
- 発売日: 2020/04/17
- メディア: エレクトロニクス
映像の改善
こちらはいろいろと調べながら試しているところです。長くなったのでこちらの別エントリで書きました。
↓
α6100 を macOS で Webカム化(HDMI キャプチャなし、クロマキー合成あり)して Google Hangouts でビデオチャットする方法 - griffin-stewieのブログ
おまけ
モニター環境もリニューアルしました。会社では LG の 27UL850-W を使っていて同じものを自宅用にも買おうとしていました。
LG モニター ディスプレイ 27UL850-W 27インチ/4K/DisplayHDR400/IPS非光沢/USB Type-C、DP、HDMI×2/スピーカー/FreeSync/高さ調節、ピボット
- 発売日: 2018/12/13
- メディア: Personal Computers
同僚から DELL から同等クラスの新しく出ることを教えてもらいちょうど LG が在庫切れになっていのもあり以下の DELL U2720QM を買いました。
Dell 4Kモニター 27インチ U2720QM(3年間無輝点交換保証付/広視野角/HDR/IPS非光沢/フリッカーフリー/USB Type-C,DP,HDMI/高さ調整/回転)
- 発売日: 2020/04/04
- メディア: Personal Computers
このディスプレイは LG のものよりも好みの画質で買って良かったです。
まとめ
結構な手間とお金がかかりましたがおかげで会社と同等か場合によってはそれ以上の快適さを手に入れることができました。リモートワークをしているみなさんも今回僕が実践した改善の中から1つで取り組んでみると QOL が爆上がりするかもしれません。ぜひお試しください。
Swift ArgumentParser に version 番号出力がビルトインサポートされる
Swift ArgumentParser に version 番号出力がビルトインサポートされる
以前、Swift ArgumentParser でバージョン番号を出力する方法 - griffin-stewieのブログ というエントリに当時の Swift ArgumentParser で --version
フラグでバージョン番号を出力する方法を紹介しました。その時のエントリでも ArgumentParser 側でサポートされたらいいなということを書いていましたが、1週間前の 3/31 にその機能が実装されました。
Add built-in support for --version flag (#102) · apple/swift-argument-parser@31799bc
まだ、リリースはされていませんが、どのように変わったのかを紹介します。
これまでの実装方法
import ArgumentParser struct MyEcho: ParsableCommand { static var configuration = CommandConfiguration(commandName: "myEcho") struct Version: ParsableArguments { @Flag() var version: Bool func validate() throws { if version { throw CleanExit.message("1.0.0") } } } @OptionGroup() var version: Version @Argument() var text: String func run() throws { print(text) } } MyEcho.main()
上記サンプルコードは前回のエントリで紹介した、必須引数とバージョンフラグの両立をするためのコード例です。--version
フラグでバージョン番号を出力させるために
Version
struct の定義とfunc validate() throws
の実装@OptionGroup
でversion
プロパティを実装
というそれなりの行数を必要としていました。
built-in support された ArgumentParser を使った場合
import ArgumentParser struct MyEcho: ParsableCommand { static var configuration = CommandConfiguration(commandName: "myEcho", version: "1.0.0") @Argument() var text: String func run() throws { print(text) } } MyEcho.main()
CommandConfiguration
のイニシャライザにバージョンの文字列を渡すだけです。これだけで 1.0.0
と出力されるようになります。
ちゃんとヘルプにも --version
フラグがの説明が表示されます。
% myEcho --help USAGE: myEcho <text> ARGUMENTS: <text> OPTIONS: --version Show the version. -h, --help Show help information.
まとめ
- 以前のような
--version
フラグをサポートするだけのためにワークアラウンドは不要になった -v
のようなショートオプションは未サポート- どうしても
--version
以外の指定方法をサポートしたい場合は以前の方法で実装すればよい
- どうしても
- 簡単
蛇足
この機能が実装される Pull Request で唐突に Nate さんから「どう思う?」って聞かれてビビりました。
僕からは
- ヘルプに
--version
フラグの説明ないよ --version
以外の名前のカスタマイズはサポートしないの?
というリアクションをおくったらヘルプメッセージは対応してくれました。カスタマイズに関しては、コード補完機能を実装したあとに検討するようです。
Swift ArgumentParser におけるプロパティの定義順の重要性
今回はタイトル通り ArgumentParser を使っている時のプロパティの定義順の重要性について書きます。v0.0.2 で実際に経験していた範囲ですが、まだ ArgumentParser のソースコードを読んだ内容ではないこと、今後のバージョンで変わりうることをご了承ください。
前回のエントリのつづき
import ArgumentParser struct MyEcho: ParsableCommand { static var configuration = CommandConfiguration(commandName: "myEcho") struct Version: ParsableArguments { @Flag() var version: Bool func validate() throws { if version { throw CleanExit.message("1.0.0") } } } @OptionGroup() var version: Version @Argument() var text: String func run() throws { print(text) } } MyEcho.main()
上記サンプルコードは前回のエントリで紹介した、必須引数とバージョンフラグの両立をするためのコード例です。詳しい内容は前回のエントリを参照ください。
実はこの上記のコードでも前回解決した問題を再び発生させることが出来ます。
問題再燃サンプル
import ArgumentParser struct MyEcho: ParsableCommand { static var configuration = CommandConfiguration(commandName: "myEcho") struct Version: ParsableArguments { @Flag() var version: Bool func validate() throws { if version { throw CleanExit.message("1.0.0") } } } @Argument() var text: String @OptionGroup() var version: Version func run() throws { print(text) } } MyEcho.main()
何が変わったかわかりますか?
text プロパティと version プロパティの定義順を変更して text プロパティを先に持ってきました。これだけで
% myEcho --version Error: Missing expected argument '<text>' Usage: myEcho <text> [--version]
というエラーになります。
結論(経験上)
プロパティの定義順に処理が進むので先に解決して欲しいものは先に書くべし。
もしくは @Argument()
は必ず最後に書くべしとも言えます。
@OptionGroup()
の Property Wrapper の init 時に ParsableArguments
の func validate() throws
が実行されます。上からプロパティを埋めていくように ArgumentParser は動作しているようなので、引数を処理している最中に struct Version
のイニシャライズの段階でバリデーション処理でこける(バージョン番号を出力して正常扱いで終了)ために、@Argument() var text: String
に到達しない。これが、期待する動作を手に入れていたころのコードでした。
プロパティの定義順を text を先にすると、ArgumentParser が引数の処理をしているときに text プロパティに代入するべき値が存在しないため version プロパティの処理をする前に必須項目が欠如しているとしてエラーになります。
Help や Usage にも影響あり
% myEcho --version Error: Missing expected argument '<text>' Usage: myEcho <text> [--version]
このエラー時の Usage の出力をみると引数 text の後ろに version フラグが書かれています。
ためしに前回のエントリの完成形コードを引数もフラグもなしで実行すると
Error: Missing expected argument '<text>' Usage: myEcho [--version] <text>
このように version のあとに text が来ています。
プロパティの定義順によって出力される説明の順番にも影響を与えています。
さらに僕がハマった罠
僕が実際に書いていたコードで、外から引数として与えられはしない固定値としてプロパティに保持したいものがありました。今手元で再現できないのですが、たしか Decodable に対応してないというコンパイルエラーが出ていました。ParsableCommand
は ParsableArguments
に準拠しています。さらに ParsableArguments
は Decodable
に準拠しています。よって、 ParsableCommand
は Decodable
である必要があるのです。ただし、別に Decodable である必要性がなかったプロパティだったので CodingKey を定義して除外できるようにしました。
するとさっきまで動いていたバージョン番号の出力が引数がないと怒られるようになりました。
ずっと謎だったのですが、最終的に分かったことは CodingKey に列挙している case がプロパティの定義順通りになっていなかったからでした。
このせいで結構な時間が溶けていました。
まとめ
プロパティの定義順は
- パース処理の順番
- Usage や Help の出力の順番
- CodingKey を定義する場合はプロパティの定義順に揃える
ということでした。
常に順番を意識してコードを書きましょう!