ワ無し基地外がワ有り使わない宣言しているしこっち使うわ
>>1
乙
向こうのキチガイが書き込みせずに放置してたから再利用していただけなのに、いきなり戻ってきてアレではどうしようもない リリース版はまだだけど、モデルとかも更新されたみたいだね
・「CEATEC JAPAN 2018」が今月19日まで開催中(4)。8KをHDMIケーブル1本で伝送できる。ソシオネクストがHDMI2.1対応チップを展示
https://online.stereosound.co.jp/_ct/17215087
「チップ内部でリアルタイムに2種類の超解像を行なってその結果を比較、ディテイル再現の自然な方を再現する「比較型超解像」という独自方式となる。
実際にUHDブルーレイでデモを行なっていたが、木立の細かな葉っぱの再現などに明確な違いが現れていた。」
waifuも複数のエンジンを同時に走らせて最適な結果を取捨選択すれば、滑らかかつくっきりな画像ができあがるかもね やるのであれば対象が例えばイラスト寄りかCG寄りかを判別して重み付けする処理とその2つをそれぞれ学習したモデルと重み付け結果によりMIXする処理があれば出来るのかな?
PSNRとかの指標はともかく見てくれは良くなりそう
waifu2x-chainer-GUIで、
ファイルをD&Dして実行すると「failed to start python」ってなる
その時に下に出るエラーログで表示されるコマンドをコマンドプロンプトで実行するとちゃんと処理される
・・・何が悪いんだろう?
速攻でで自己解決した
頭に来たんでGUIのexeとxamlをanaconda3のフォルダに突っ込んだら動いたわw
waifu2x chainerのコミットなんとなく眺めてたら
Improve UpResNet10 architectureのなかに
return h * se + x
とかあって笑ってしまった。
自分は心が汚れ過ぎてるんですかね
waifu2x-chainerのf992515でupresnetを使うとエラーが出るのは自分だけ?
v1.8.1なら問題ない
リリースされてないバージョンだけど waifu2x chainerのupresnet10新しいモデルうまく出力されない?
まあどう考えても待つべきなんだろうけど。。
モデル差し替えだけでは動かないけどそこは大丈夫?
lib/srcnn.pyも更新しないとだめだよ
エラー内容書いてもらわないとこれ以上のアドバイスはできないね
あーたぶんChainerのバージョンが原因かな
行列の要素積を計算するときにそれぞれの行列の形を自動的に合わせる機能が有効になってないんだとおもう
5.0.0rc1にアップデートすれば解決するかも
pip install chainer==5.0.0rc1
>>19
ありがとう、いったん
pip uninstall chainer
して
pip install chainer==5.0.0rc1
したら上手くいった a9917a7と1.8.1のupresnet10の違いがよう分からん
waifu2x chainerでupconv7がupdateされてるな。何が変わったんだろ
upconv7って音楽の高音質を補完しつつハイレゾ化するソフトがあるのでそっちもchainerでアップデートしたのかと思った。
まさかのwaifu2x-caffe更新とはありがたい
UpResNet10の速度的には、cuDNN使ったcaffeでもchainerと同サイズ設定ならほぼ変わらないっぽい?
自分のしょぼい環境では、caffeのUpResNet10だと分割サイズやバッチサイズを上げるとすぐエラー出て
chainerだとサイズ類を上げても大丈夫な影響で、結果的にchainerの方が早くできる
upconv7は以前通りcuDNN使ったcaffeの方が圧倒的に早いけどね
>>29
フリーソフト - upconvfe 0.7.x の仮公開
http://59414d41.cocolog-nifty.com/blog/2018/06/--upconvfe-07x-.html
音声ファイル(wav)のサンプリングレート変換ソフトです。
CDからリッピングした44.1kHzのファイルを88.2kHzや96kHz、192kHzの
ハイレゾのwavファイルに変換できます。
また、16bitから24bit化できたり,CD化のときに削除されてしまった20kHz
以上の音を8〜10kHzのところの倍音を解析して高域補完をし、
アナログに近い最大で96kHzまで入っている音が作成できます。
例えば、サンプリングレートを96kHzに変換し高域補完すると48kHzまで
入っているハイレゾ音源ができます。
失われた音の再現ですので、本物の音ではないですが、
バイオリンや自然音、マラカスなどの高域まで続く音が自然になります。
018/10/08 追記
現在はサンプリングレート(705600hz / 768000hz)の対応中です。
一部upconvの高域補完(hfa3)の補完パラメーターもいじっています。
開発環境が変わったので、コンパイルしなおしてデバッグ中です。 >>30
このソフトリンク切れてたから開発終了だと思ってたけど作者生きてたのか。嬉しい >>26
おっ!caffeが対応ですか
CPUだけの実行でもご利益はあるのかな?
>>30
768kHzの対応中w
すごいな
Potplayerで192kHz、32bitで再生しているのだが、768kHzとかにしちゃうとかなり品質の悪い圧縮音声ファイルを再生しても心地よく聴けそうな気がする 別件で、Googleマップの航空写真がいつの頃からかわからないが表示される画像がwaifuっぽい輪郭線に感じられるのは気のせいか?
>>26を試してみたけど、うちの環境だとcudnnを入れないと動かなかった
あと、拡大率2倍以外にすると処理時間が数倍レベルで跳ね上がった waifu2x-caffe ver 1.1.9のUpResNet10をCPUで使うとクラッシュするの自分だけ?
同じ症状の人がいればissueに報告しようと思うんだけど
>>37
仕様知らないけどcuDNN無しだと俺もクラッシュするわ
win10
i7 7700k
gtx1080ti >>40
乙
1.1.9.1がリリースした様だけど試した? >>41
試してないけど言語ファイルの修正だから関係ないんじゃないかな >>30
thx
32kHz未満や8bitからの補間には非対応かー、まあいろいろ試してみよう >CUDA Toolkitを10.0.130に更新(同梱しているdllも更新)
>cuDNN v7.3.1に対応
前からこの書き方がいまいちよく分からないんだけど
・CUDA10.0.130のdllを同梱している
・cudnn64_7.dll v7.3.1のCUDA10用が必要
・CUDA10.0.130は https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/ によればGeForceドライバ411.31(2018年9月頃)以降が必要
ってことでいいのかな
新しいのに対応するのはいいんだけど、新しくないと動かないってのは結構面倒なんだよな CUDAだけインストールしてもドライバ入れないと動かないのか…時間かかるからCUDA以外のチェック外して動かなかったんだわ
>>47
乙
確かに斜め線だけが惜しいな
1枚目の数字の件、モデル作成時に文字や数字、記号なんかをたくさん含んだ画像を加えるといいんじゃないのかな? >47
お疲れ様です。
UpResNet10モデルでは分割サイズによって出力結果が変わると
waifu2x-cafeeのREADME.txtに記載があったため、
当方で分割サイズ38(デフォルト)のものと512のものを作成・比較してみたところ、
テスト2の4xの画像で、右側のビルの上部の壁の斜線が集合している部分の
奥の市松模様に変化するあたりに若干の違いがみられました。
ご参考まで。
>>47
手元にAdobeRGB画像があったから試してみたよ
拡大した画像のプロパティを確認するとAdobeRGBの情報がきれいさっぱりなくなっているので、拡大前より色あせて見えています
たぶん、前と同じく情報だけ書き換えればすぐにAdobeRGBに戻るパターンだと思います >>47
>>50
確かwaifu2x-chainerだとICCプロファイルを維持して拡大出来たと思う >>48
文字や数字をモデル作成時に加えておくのは有効でしょうね
>>49
分割サイズによって変化があることは承知しているのですが、これは画像サイズに応じて
自動的に最適なサイズに設定されるわけでもないのですかね?
>>50
やはりそうですか。この点は是非とも改善してほしいところですね
>>51
なぜ差が出るのでしょうね?
>>52
waifu2x-caffe側も是非とも対応していただきたいですね >>47
ver. 1.1.9.2で確認したところ、デフォルト値は38固定のようですが、
入力画像の解像度に応じて分割サイズのプルダウンメニューの中身が
一部変わる場合もあるようです。
1920x1080では 38|60,120|64,100,128,... で、
1280x720では 38|80|64,100,128,... でした。
他のスレでは値が小さい方が良い結果が出るという書き込みがありましたが、
私の環境では38より512の方が見た目が好ましい場合もありましたので、
色々と値を変えて試してみるつもりです。 >>54
必ずしも小さい数値が最適とも限らないわけですね
そのあたりの最適化といいますか、自動化をするメソッドなどがあればよいのにと思います
おそらく大半の人にとって何分割するのがいいかなんて数字だけ見ていても判断がつかないでしょうから 大きい数字の方が明らかに早いから可能ならめいいっぱい上げたいな
jpeg出力時にYUV444とかでの出力もちょと欲しい
すまん。久しぶりに来たんだけど、3スレ目はどこかな?
2スレ目の終わりが2018/01/24だからあると思うんだけど、ログ検索しても見当たらない
なるほど。ありがとう
常駐してないとそういう事情分からんもんで助かったよ
waifu2xの作者様、何やら凄まじそうなモデル作ったみたいやね
UpResnetよりいいのかな
分割サイズ少なくとも128の範囲まではメモリ消費はあれど上げれば上げるほど早くなる上に画質まで上がるのか、画質向上は誤差レベルとはいえ嬉しいな。
本家の新モデルは、いつ頃使えるようになるのだろう?
PSNR 40超えとか、期待せずにはいられない
waifu2x-chainer1.2.1を入れたんだけど
folder missingとかでて使えません
どうすれば使えますか?
>>67
はい、install.batを実行したら450M位サイズのあるアナコンダとかいうののダウンロードが始まり
終わったらコマンドプロンプトが立ち上がったのですが何をやったら良いのかわからないので閉じました >>67
ありがとうございます
とりあえずfolder is missingっていうエラーは出なくなりました
しかし
Traceback (most recent call last):
File "C:\waifu2x-chainer\waifu2x-chainer-1.9.0\waifu2x.py", line 5, in <module>
import chainer
ModuleNotFoundError: No module named 'chainer'
っていうエラーが出るようになりました・・・
Python 3.7.1っていうのをダウンロードすれば良いんでしょうか? >>68
install.batを実行したあと正常に処理を終えたら「successful Installation.」と表示されるはずなのでそれまで放置してください
途中でコマンドプロンプトを終了した場合Anacondaのインストールが正常に行われていない可能性があるので一度Python 3.7.0 (Anaconda3)をアンイストールしてから再度install.batを実行してください 画像拡大ソフトってことでTwitterでA.I.Gigapixelが話題になってるけどここでは誰も触れてないのか
今は向こうのスレでちょっと話題になってるけど気になるなら自分で試してみれば?
俺は土日まではいいや
>>71
アレは以前に評価済み
金払うほどではない
waifuの最新版が写真用モデルを出せば、あっさり追い抜く waifu2xは次の版もPSNR基準、つまり正確さ重視みたいだし
見た目の綺麗さを重視してそうなA.I.Gigapixelとは方向性が違うと思うよ
どっちが上というか、用途によって使い分けるのが吉かと
CaffeeのupResNetで遊んでたらグラボ(Titan Black)が逝ったかも・・・
Windowsの汎用ドライバー以外にすると映像出力されずにハングする
OSも死に体になってるからクリーンインストールで直ってくれるといいなぁ(駄目そう)
動画のエンコに使ってるから今まで2〜300万枚程度はかけてると思うけどそういう話があると怖いなぁ…
金が無いから1060 GTXに載せ替えた
>>77
Caffeeで今まで通ってた設定が通らなくなる→どんどん通らなくなる
→フリーズ、画面ノイズが起動時に発生
→OS標準ドライバ(低解像度)でしか起動しなくなる
もともと900シリーズが出た頃に放出された中古品だし、エンコでしばいて稼働3年なので寿命やね 本家の動きが止まったままのようだが、何かマズいことでもあったのか?
みんな待ってるのに
>>79
前回upconv7モデルを発表したときにアーティファクトが出る問題が指摘されていたから今回の新しいモデルで新たな問題が起きないか時間をかけて入念にテストしてるんじゃないかな
それに互換性が失われる更新は安易にコロコロ出来ないから完成度を高めてからリリースしたいっていうのもあるだろうし WEB版のwaifu2xのイラストモデルが更新されたようだ
写真用モデルはGPUメモリ対策が必要らしい
試してみたが斜め線が確かに改善されている!
完璧とまではいかないまでも、ここまで改善されれば実用上は充分かも
あとは写真用モデルを…
(イラスト用モデルはどうしても画像の透明感が犠牲になる)
遂に来た感じあるなー実装が楽しみ
あとResnet10にはphotoモデルなかったしこちらも更新されるってのはなかなか興味ある
新イラストモデル凄すぎて笑うしかない
resnetとかのトーン拡大の気持ち悪さがめちゃくちゃ自然になってるわ
お世話になっておいてその言い草は無いだろ…
どのモデル作者にも感謝しかないわ
本家の作者氏のTwitterによると、新しいバージョンのPSNRは40を超えたのは間違いないようだね
このパターンのPSNRの上下値は50あたりなのかな?
だとするとかなりいい線なのだろう
>>70
何度も申し訳ございません
何度やってもsuccessful Installation.と表示されず
上の画像のところで止まっております >>87
Anacondaのインストーラーが何の進捗ダイアログも出さないので処理が止まっているように見えますが実際はちゃんとインストール処理をしているのでウィンドウを閉じずに放置してください >>89
failed to start pythonってでるのでアナコンダのインストールが失敗してるみたいなんです >>90
v1.2.2でinstall.batの処理を修正したりインストールログを出力するようにしたのでお手数ですがもう一度試してみてください
あとWindowsのバージョンによってはAnacondaをインストールしたあと再起動しないとPythonのPathが環境変数に登録されなくて起動できないかもしれないです >>88
これかも
前試した画像では加工後のファイルサイズもノイズの残り具合も
なし>中>低 だったんだけど、それよりノイズの多い画像で試したら
なし>低>中 になるみたいなので
お騒がせしました 本家cunetモデルもう入ってるんだ。早くcaffeに来ないかなー
waifu2xの作者様じゃん。
コミットしてないなら自分用に書いてるだろうし配布する気はないと思うよ。
waifu2x caffe1.2.0
cunet使用時に拡大/ノイズ除去/両方のどれを選んでも分割サイズが大き過ぎる可能性がありますとエラー落ちします。
CUDA/cuDnnのみで発生するようでCPUで変換した場合は正常に変換できました。
1.9xからの更新、1.2.0のフルの両方で発生してます。
申し訳無いですがお願いします。
えっと一応cudnn64_7.dllは入れており、前の1.9.2では正常にcudnn使用で変換出来てました。
waifu2x-caffe ver 1.2.0のCUnetでCPU使って変換しようとすると落ちる人自分以外にいる?
多分CUDA環境が無いと落ちるとかだと思うんだけど、他にいればまた報告しにいく
いややっぱり自分の環境ではどうやっても動かないことには変わりないから報告してくるわ
>>100
普通に変換出来たけど 分割サイズの調整とかしてる? CU netモデルcuDNNのバージョンを7.4.1に更新すると動きました。
cuDNNのバージョンチェックでは7.3より新しくして下さいといったエラーメッセージが出たためチェック部分の更新がされていなかったためと思われます。
CUnet、結果が違うのでアレだけど GTX-1070 8GB cuDNN で
分割サイズ 48、バッチサイズ 17
が試した中では一番速かった。
ああ本当だありがとうございます。
分割数があまり大きく出来ないなどが問題なのかなぁ
CUnet(cuDNN)で変換中によく落ちてたけど仮想メモリサイズを固定値からシステム管理に戻したら落ちなくなった
メモリ8G>X1060 6G
経験上分割数よりプロセス数増やした方が早かったので
分割数60,バッチサイズ3のものを4プロセスで実行していたのですが
>>106で分割数が少ないとより遅くなる可能性があるという話があったので
分割数256,バッチサイズ5のシングルプロセスとするとおおよそ>>106のような結果になりました。
意外だったのはCPU/GPU使用率やCPU/GPUメモリに余裕がある状態でもプロセス数を増やすと遅くなったり(今まで遅くなるモデルはなかったと思う)
分割数は220-256辺りがベストでそれより多くても少なくても遅くなったりした事です。
windows7 CUDA10,cuDNN7.4.1 ,5960X,GTX1080(8GB) 写真用モデルの更新は、まだ時間がかかるのだろうか?
CLIP STUDIO PAINTのJPEGノイズ除去が話題になってた
線画の自動着色もあるみたいで、それも学習なんだろうな
caffeで2次元イラスト (Yモデル)だとエラーが出るんですけど何故?
>>114
思いつくのは、Yモデルだとノイズ除去レベル1〜3のモデルしか公開されてないから0を選んで変換しようとするとエラーになるってやつかな
他の変換モードでエラーが出るなら原因は分からない あとエラーが出るならどういうエラーメッセージが出たか書いたほうが回答しやすいよ
>>112
トーンのグレー化とか面白い機能も付いてるのな
やっとモアレに悩まされなくなる新時代が来たわ CUDAドライバーがインストールされていない可能性があります が出てたけど
>>45に助けられたわ ドライバも更新しないとダメなんな 今日ツイッターでwaifuの事知って試してみてるけど、waifuかけてトリミングするのと、トリミングしてwaifuかけるのどっちが定番の使い方なのかな?
処理が軽さはwaifu2xが重いので、トリミング後で処理サイズが小さくなる後者
画質的には端の方はトリミングで切られる外側も加味した方が良いだろうから
わずかに前者に分があるんじゃないかなあ
出力画像を書き込めませんでした
出るんですけど何故?
>>124
UACとかあの辺でフォルダにアクセス権が無いとかかな
別のフォルダに移して処理すればいいと思う >>125
保存先をデフォルトから変更したらできました!
ありがとうございます! なんじゃそら…
そんなことより写真用モデルの更新、はよはよ
CUnetで拡大した場合Y成分以外他のモデルより綺麗に拡大出来てなくて(元が4:4:4の画像を拡大しても出力画像が成分的に4:2:0のようになっているように見えた)不思議に思ってたんだけどこれが原因なのかな
変換モードでノイズ除去と拡大を選んだときはUpCUnet(ノイズ除去と拡大を同時に行うモデル)を使用するのが正しい動作だったけど今まではCUnet(ノイズ除去と拡大が個別に分かれているモデル)が誤って使われていた。
この修正の明確なメリットとしては処理時間の短縮と拡大倍率が2倍までのノイズ除去と拡大ならメモリ使用量が半減するというのがある。
今までより品質が上がるかどうかまでは分からない。
今までdGPU非搭載のノートパソコンでちまちまとテストしていたのだが、dGPU搭載ノートパソコンが手に入ったので
cudnnを組み込んだうえで最新版のcunetモデルで実行したら、あまりの速さにびっくりした
画像さえきれいであれば実行時間なんてそれほど気にはしないほうなのだが、これだけ速いといろんな画像で試したくなった
やっぱりすごいな、これ
あとは実写版のcunetモデルが出さえすればパーフェクトなんだけど…
実写版はGPUのメモリー関連で苦労するようなことを作者氏が少し前に言っておられたが、
その後、進展はあったのだろうか?
金銭的なことがネックなのであれば1万円か2万円程度だったら寄付するけど、その程度ではまったく足らない?
それとも金とは関係ないことがネックになっているのだろうか?
2次元用モデルは水とかガラスのような透明感のある画像の、透明感がスポイルされてしまうのだけが気になる
そこさえ突破できれば、あとは何も問題ないと思うので
作者はここ20日ちょいで800kほど仮想通貨取引で儲けてるで。お金の問題では無さそう。
ひと段落つくか妙案が浮かぶか、とにかく納得の出来るものになるまでは完成品は公開しないんじゃ無いかな。
cuDNN2次元モデルも進捗報告から実際に公開されるまで結構紆余曲折あったみたいだし気長に待つのがいいんじゃない?
3次元画像なら今ならESRGANとかあるしPSNR拘らなきゃぱっと見の感覚ではwaifuより良さそう
別にwaifuじゃなくても良いんだが小説等、文字に特化したやつって無いの?
文字に特化って、OCRじゃあかんのか?
ディープラーニングの登場によってOCRも精度上がっとるぞ
文字画像を拡大させてからOCR使うと読み取り精度が上がる
文字というか、ビットマップのベクター化が
深層学習で既存の物よりもっと精度が高くなったらなあ
>>141
Linuxならそれこそ本家が使えるんじゃないの?知らんけど 髪の毛の一本一本とか毛穴とか自動で書き込んでディテール増やすソフトとかないの?
docker imageあるかなぁって思ったらいっぱいあるな
でもこれと言ったデファクトスタンダードは存在していないようだ
更新が一番最近のでも5か月前だし
Anaconda3-2018.12-Windows-x86_64.exeをインストールしたフォルダに
waifu2x-chainer-GUI_1.2.2.zipを回答した中身をコピペして管理者権限でinstall.batを実行しても
「エラー waifu2x-chainerのインストールに失敗しました」となってしまう
https://pastebin.com/N8x4UjEp
ダイアログの一行目に「指定されたパスが見つかりません。」と出てくるから
おそらくpython自体が認識されてない状態だと思うんだけど何の工程ができてないんだろう
C:\Users\*>python
Python 3.7.1 (default, Dec 10 2018, 22:54:23) [MSC v.1915 64 bit (AMD64)] :: Anaconda, Inc. on win32
Type "help", "copyright", "credits" or "license" for more information. >>147
Pythonの起動自体は成功してるみたいだけど、
> pip is configured with locations that require TLS/SSL, however the ssl module in Python is not available.
pipコマンドでSSLが使えてなくてChainerのインストールに失敗している模様
OpenSSLをインストールすれば解決出来るみたいだけどやり方がよくわからないので一度Anaconda、Python環境をアンインストールしてinstall.batを実行するのが確実かと >>148
Anaconda入れなくても最初からinstall.batが全部やってくれたんですね…
検索で出てきたサイト宛てにしないで最初から質問すればよかったorz
geek uninstallerでpython(anaconda)消して環境変数からもanaconda関連は削除して再起動をかけたのですが
今度はinstall_python=yesになってしまうみたいです
install_log_2019020120141451.txt (145byte)
> Microsoft Windows [Version 10.0.17763.253]
>
> PowerShell Version : 5.1.17763.134
> install_python=yes
> エラー URLの取得に失敗しました
素人にとってこんなに難解なのか…と思いつつもchainerが細かい部分も一番綺麗に仕上がるみたいだから
絶対入れたいんだよなあ >>149
ごめん
このスレのテンプレに書いてある情報はスレ建て直後のことで今はwaifu2x-caffeのCUnetモデルが一番高精度なんだ
無駄に煩わせてしまってすまない >>150
とんでもない
素人のポカなのに親切に御教示くださりありがとうございますm()m 実写用モデル、まだぁ…
別件で、GeForce RTX20*0シリーズに搭載のTensor Coreを利用した画像高解像度化ソフトとかは出ないのかね?
画像にある文字や透かし文字をみたいなのを消す技術はあるらしい
>>159
グーグル先生で一発で出たわ
また余計な知識が一つ増えた
ありがとう >>157
ありがとうございます
しかし私のやり方が悪いのかビキニの上にある文字を消すと
ビキニまで消えた感じになってしまいます・・・・
素っ裸よりかビキニのほうが良いんだよ・・・ 水に濡れたツルツルテカテカの布を学習させて
どんな水着でもツルツルテカテカにしちゃうソフト作って
cunet と upresnet10 の質の違いが今一わからん…
>>165
4倍拡大くらいすると画像によっては違いが出るみたい
CUnet
UpResNet10
拡大は×2でも輪郭とかディテール見たら1発だと思うけどなぁ
デノイズは分からない
waifu2x caffeの必須compute capabilityが3.0になって、geforce 5xx 系がサポート外になった
が、waifu2xのソースには今まで通りcuda の必須バージョンが7.5になってて、これソースからビルドしたらgeforce 5xxでも今まで通り動くのでは?
と思って確かめた。
結果、caffeをビルドするbatでCUDA_ARCH_BINと CUDA_ARCH_PTXあたりに20を指定したら動いたわ。
なおcunetはvram 1.2Gのgeforce 570じゃ足りなかった。
580のvram 3Gモデルなら足りるかも
CUNETってVRAMいくらなら動くの?
2Gじゃcudnn使っても足りなかったよ
と思ったら敢えてcudnn使わないようにしたらギリギリ動いた
あれーcudnnの方が断然省メモリじゃなかったのかよ
768x1080の画像でCUDAだと1800MBくらい
cudnnありだと700MBくらいだったけど
処理時間はCUDAの方が2割くらい短かった
↑は(CUnet)(noise)(Level0)分割サイズ64バッチ1の結果で
(CUnet)(noise_scale)(Level0)(x2.0)ではcudnnの方が速かった
うちの環境じゃやっぱりcudnnの方がメモリを食うようにしか見えない。
Windows7, GTX670, CUDA10, cudnn7.5, waifu2x-caffe-1.2.0.2の環境で、
(CUnet)(noise_scale)(Level0)(x2.0)を実行すると、
強制終了した時のnvsmiでのメモリ使用量は2029MiB / 2048MiB。
あと、分割数は4まで下げても同じ。
画像サイズは約1600x1200
分割数増やした方が使用メモリ増えるんじゃないっけ?
分割サイズの事を画像をいくつの断片に分割して処理するかみたいに勘違いしてる人が多いけど、実際はピクセルの大きさだからね
>>179
mjd?
だったら日本語間違ってるだろ… > 分割サイズ(crop_size)とは、この画像を分割する際の幅(ピクセル単位)の事です。
分割の増減でどうなるん?
差異があるからこの項目あるんでしょ?
画像のサイズは処理開始時にわかっているのだから、GPUのメモリー容量に応じて最適なサイズで処理するとかできないのかね?
以前、何度か処理中にPCの電源ごと落ちたことがあるが、正直心臓に悪い
分割サイズは
> * 必ずしも数値が大きければ大きいほど速くなるわけでは無い
> * 分割サイズが画像の縦横サイズの約数(あるいは割ったときに余りが少ない数)だと、無駄に演算する量が減って速くなる。 (この条件にあまり当てはまらない数値が最速になるケースもあるらしい?)
ので単純に分割数を増やしても処理速度はそこまで向上しないと思われる
>>185
電源落ちるのは電源容量が足りないかグラボ自体になんか問題あるんじゃない?
メモリ足りないサイズで処理してもソフトが落ちるだけでOSや電源ごととかならないかと waifu2x caffe 8並列ぐらいしてみた時はGPUメモリ使い切った場合は完全にフリーズしちゃったな(変換も進んでない)
使い切らなきゃ問題は起きなかった。
>>185
メモリのせいかどうかは、
"C:\Program Files\NVIDIA Corporation\NVSMI\nvidia-smi.exe" -l
コマンドでメモリの使用量を監視してみ?
メモリを使い切ってないなら電力不足で落ちてると思われ >>185
自分の場合GTX1070使ってて電源落ちが頻発して、GTX970に戻しても落ちたので電源を500W Goldから750W Goldに変えたら落ちなくなった。
イベントビューアを開いて電源が落ちた辺りで 重大 Kernel-Power 41 っていうのがあったからこれがあなたの環境にもあったら電源の問題だと思う。 cunetで変換画質めっちゃ良くなったけど、瞳がまだ滲んだような変換になってしまうことが多いな
これが綺麗に変換できるようになったら最高なんだが
A.I.Gigapixelのことを自作のAIって書いてるのがGIGAZINEらしいw
DeepCreamPyだと
このレベルで文字消しができるんですか?
どうやるんでしょうか? うん
DeepCreamPyはイラストでガチガチにトレーニングしてあるから実写は無理だと思う
別のソフト探したほうがいいんじゃない
実写のモザ消しに試してみたら覆った範囲全部大陰唇みたいな判定で出力されてワロタ
2次画像は書き込んでる人とそうで無い人が分かって面白いなと思った
>>203
画像サイズによって速度の優劣が変わるんだな
なぜだろう? >>204
多分caffeは起動に時間がかかるんだと思う。 ラデでも動くのは確認できたが
CUnetなのにボケボケなのはモデル間違えてるんかな
モデルを間違えてるというより推論っていうのかな?モデルを使って拡大する処理の部分に問題がある気がする
ちゃんとディープラーニングに詳しい人が見てくれないとはっきりとしたことは分からないけどさ
>>203
画像の表でtotal timeがミリ秒になってるけど秒だよね…? >>201のwindows版をダウンロードしたんですが、exeをクリックするだけでは起動できないんですよね?
これからどうすればいいんでしょうか? >>209
waifu2x.exe [input image] [output png] [noise=-1/0/1/2/3] [scale=1/2]
noise = noise level, large value means strong denoise effect, -1=no effect
scale = scale level, 1=no scale, 2=upscale 2x >>203
GTX1070にしてはまだかなり遅いと思うな。
caffeならcudnn使用のcunetで5-7倍程度出ると思う。
GTX1080だとインプット150万画像/sec程度の速度でx2拡大処理出来てるので 書いた後でなんだが400x400の項目しか見てなかった。
4000x4000とかだとそれなりに速くなるんだな
>>210
ありがとうございます!
仕事から帰ってきてから試してみます。 Vulkan版ブロックサイズ指定できるようになって以前のだとエラー出て拡大できなかった画像も行けるようになってた
AMD派はVulkanかOpenCV使えば良さそうかな
Vulkan版なんだけど現時点では出力画像のコントラストがちょっと変わることがあるので注意ね
まだ試験運用に留めて本番運用に使用するのは控えたほうがいいかも
適当に説明すると
最初のリリースだとgtx20とvegaのGPUでfp16aの演算結果が正しくない問題があって>>206,207で言われてたように画質の悪い画像が出力されてた
なので現在のバージョンでは応急処置としてfp16aの演算をオフしてあって、明らかにおかしな画像が出力されるってことは無くなった
しかしfp16aをオフにすると演算精度が足りないみたいで画像のコントラストが変わってしまうという事が起きるように
TODOの中にこの問題の修正が入っているのでいつかは直ると思うがいつ直るかは不明 いやごめん適当なこと書いたかも
fp16aのバグが直ったらコントラストの問題も直るみたいに書いたけどそうでもないかもしれない
コントラストが変わる問題を作者の人に聞いたら早速返答が帰ってきた
https://github.com/nihui/waifu2x-ncnn-vulkan/issues/4#issuecomment-482907991
yeah, I found the little difference too.
It is not because of fp16s or fp16a, but because of postprocess.
waifu2x-caffe add a small eps value to all pixels during postprocess, while waifu2x-ncnn-vulkan do not.
I may port this behavior to let the result pixel-wise identity to the caffe one.
以下Google翻訳
ええ、私も少し違いが見つかりました。
これはfp16sやfp16aが原因ではなく、後処理が原因です。
waifu2x-caffeは後処理中にすべてのピクセルに小さいeps値を追加しますが、waifu2x-ncnn-vulkanは追加しません。
この振る舞いを移植して、結果として得られるピクセル単位のアイデンティティーをカフェのものにすることができます。 Vulkan版、version 20190414で>>217の修正入ってベンチマークのスコアがwaifu2x-caffeとほぼ同じになった。
それと速度の最適化も入って環境によっては2倍くらい早くなった。 >>201
これで使われてるモデルって、要するにアニメ画像用のみなんだっけ? >>220
手動でメモリーの開放を指示できないの? Vulkan版ってコマンドラインの書式を他の派生と互換性のある形にすれば過去のフロントエンドの資産を使い回せるのになんであんな独特のやつにしたんだろ
まったく見てないんだけどvulkanってTTA2-8出力出来たりする?
>>225
必要だと思うなら実装を要望してきたら
作者さん結構フットワーク軽い人だから実装してくれるかもよ Vulkan版のcommand-lineですが
waifu2x.exe [input image] [output png] [noise=-1/0/1/2/3] [scale=1/2]
@パラメーターは 「noise=」「scale=」の文字は不要で数字のみの記述でした。
ADBCSが含まれるファイル名、フォルダー名は エラーとなりますが 解決法はありますか?
既出かもしれませんが、リアルタイムで超解像を実行できるソフトには
どのようなものがあるのでしょうか?
昔使っていたのですが、名前を忘れてしまいました。
どなたか教えていただけるとありがたいです。
動画のレンダリングのことならmadVRだろうか
汎用的にウィンドウを拡大出来るものがあるなら、自分も知りたいな
>>234
動画というよりは、普通の画像を普通のビューアで拡大するように超解像できるソフトが有ったと思うんですが…
私の方でもサイトを探してみます。 >>235
100x100倍 超解像ソフトかMugen Viewerあたりかな? >>236
100*100ではないですね。
確か公式サイトはインド系の彫刻?を拡大していたと思います >>237
市販だとphotozoomproがあるけど、そういうのとは違う? 今更waifu2xcaffeのアップデートに気づいて
CUnetでは分割数で結果が変わると書いてあったので、
拡大のみ2倍 TTAなし 分割数512 と
拡大のみ2倍 TTAなし 分割数32を試してみたら、
512の方は文字の輪郭が二重にボケたりしますね。
これ処理速度的には結構困る。
TTAあり 512分割だと輪郭がマシにはなりますが、結局時間がかかりすぎるという。
それにUpRGBとどう違うんだろううと
CUnet32分割とUpRGBをそれぞれ拡大のみTTAなしで比較してみたら、
CUnetの方は影付き文字の色が結構黒ずむ。
無条件にCUnetにすればいいと思ってましたけど考えものですね。
UpResNet10モデルも分割数で違いがあるみたいなので試してきた
分割数が多い512だと影付き文字の色が黒ずみますが、
分割数が少ない128以下だと影付き文字の色味がそのままでした。
分割数でここまで如実に変化されるとちょっと怖くて使えない……
自分が使ってる環境ではCUnetよりUpResNet10をもっぱら使ってるけど
大体処理する画像数が30-300くらいまでで
最初に240-256で速度出そうな方で変換して結果確認
おかしな画像があったら38以下の分割でバッチ数多目で試すって感じで使ってる
私はDVDの高解像度化に使っているのでどうしても画像数が数百万程度になっちゃうので、
ところどころサンプルを抜き出して目視チェックはできますが全部チェックは流石に無理なので極力汎用的な設定を模索してるんですよね。
今のところはまずDVDのアナモルフィックをlanczos3で行い、その後Waifu2x-caffeで
UpRGB noise-scale level0 4x TTAのオプションでやるのが一番色味の変化が少なかったです。
あと、アナモルフィックをbicubic(大抵のデコーダーで初期設定)で行った時点で、字幕の色が影付きだと悪くなるの結構罠だと思う。
分割サイズが大きいほうがオーバーヘッドが少なくなって画質が上がりそうな気がするけど小さいほうが画質いいの?
周辺の画素の情報を拾いすぎてアーティファクトみたいなの出してるのかな
ところでいくらWaifu2xといえど4xぐらいまで拡大すると流石に輪郭がボケて来るので、
みなさんシャープとか掛けてらっしゃると思うんですけど、
おすすめのシャープ系フィルターを持ったソフトありませんか?
複数画像に一括でシャープ掛けられるソフトあんまり持って無いので、
おすすめがあればぜひお聞きしたい。
>>247
色々面倒なのでお勧めしかねるけれど、
画像を連番にしてavisynthで好きなフィルター入れてやってます >>247
Neat Imageての調子よかったな 複数回で輪郭ボケは仕方ないと思う。
思いつきだけど案外warpsharp弱目に掛けると悪くなさそう。
分割サイズが大きいほうが無数の断片に分割されるって思ってない?
実際は分割サイズが大きいほど分割されないよ。
例えば元の画像のサイズが400x400で分割サイズが200のときは200x200のブロックに4分割して処理するみたいな感じ。
分割の表記を変えたほうがいいかもしれんね
・現状のままだと
数値=分割したブロックの縦横それぞれのドット数
・プログラムを書き換えて何分割するかに変更した場合
数値=分割数
現状のままで数値が小さいほうがきれいに仕上がる点を考えると、最小ドット数実行モードみたいなのを設けておけば、
ユーザーが分割数だのドット数だのに煩わされずに1番きれいな画像を簡単に得られることにはなる
ただし、最小ドット数にするとものすごく多数に分割されるわけだから実行時間は長くなるだろうけど
CUnetなどで実写モデルがメモリーオーバーする件も、最小ドット数モード限定で装備できないものか
最小ドット数であれば演算時に必要とするメモリーの量も最小限で済むだろうし
このソフトを使いたいユーザーは、速さより品質を重視するユーザーのほうが多いだろうから、分割しまくることによる実行時間の増加は許容されるだろうし
一日掛けて画像補間のためのディープラーニングの用意してたら、avastがいくつかライブラリ削除しやがったせいでやりなおしになった……
cudnnってDLしたファイルをフォルダに入れるだけだよね?
何故か初期化失敗で読み込まないんだけど、GUIじゃ使えない?
ちゃんと
cudnn64_7.dll
をwaifu2x-caffe.exeと同じフォルダに入れてあったら動くはず。GUI版で動作確認してる。
>>249
>>250
教えていただきありがとうございます。
御礼の言葉を忘れておりました。すみません…… >>258
原因が判明。
Xeon CPUx2+GTX1060で使ってんだけど、Core-i7+GTX1060のサブPCで試したら使えた。
OS、ドライバー等ソフトの環境は同じ。まさかCPUのせいとは。 Waifu2x-caffeのReadmeには
TTA は指定するとPSNRが上がるよ
ぐらいにしか書いてないけど、
実際CUnetモデルを使う分にはアーティファクトが結構抑制される。(少なくとも当方の環境では)
今はEDSRを使った拡大を試してみてるんだけど、
Waifu2x(CUnet, TTA)に比べると、4xでも輪郭がくっきりしてる代わりにアーティファクトがちょこちょこでてしまうから、
誰かEDSRとTTA組み合わせてきてくれないかなあ、EDSRはNTSCサイズにそのまま使っても4xに15秒ぐらい(GTX1080)かかるから、
TTAなんてやったら余裕で分超えそうだけど
Linux環境でwaifu2x-ncnn-vulkanをビルドしてみたんだが
Mesa19.0.3だとfp16s使ってたのが
Mesa-Gitだとint8sを使うようになった
自分の環境ではそれで前者は33秒かかった処理が後者だと29秒になった
VK_KHR_shader_float16_int8対応の有無によるものだろうけど具体的にはわからん
>>263
超高解像度化に使うディープニューラルネットワークのアルゴリズムの一つ。
>>264
>>265
情報ありがとう。
NTIRE用にベンチがよくなるよう実用性をある種無視して過適応させてるのが鯨飲なら、
こっちで多少縮小アルゴリズムをミックスしたデータセット用意して学習させるか、
いっそのこと、各縮小アルゴリズムごとにモデルを分けて学習させてみるか。 そういえばちょっと前にCUnetやUpResNet10では分割数で出力結果が変わってしまうから
分割数と実行時間のトレードオフみたいな話題が出てたけど
ディープラーニングが一般化する以前に使われていた
ループエンコーディングを利用した高解像度拡大アルゴリズムをちょっと応用して。(東芝がやってたやつ)
1. CUnet分割512で拡大
2. 各区画を縮小して、元画像と差分を取る。
3. 差分の大きな区画に関しては、拡大に際しアーティファクトなどが発生していると考えられる。
4. 差分の大きな区画のみ分割を半分程度にして拡大しなおす。
以下くりかえし。
ってのはできないのかな?
究極を目指すのであれば、縦横3×3か5×5程度のミニブロック単位で処理して、拡大後のミニブロックどうしで再度整合性を取るのがいいような気もする
めちゃくちゃ時間かかるけど
ふと思ったんですけど、ノイズを除去するモデルは存在するのに、
アーティファクトを除去するモデルはないっぽい?のは何か大きな理由があるんですかね?
人間はそれを見てアーティファクトかそうでないかをある程度判断できるわけで、
素人的にはそういう人間の無意識のうちの振り分けを再現するのってニューラルネットワークは得意そうに見えるのだけれども。
>>267は手順2で拡大した大きさの元画像がないとできないから特に意味がないような
アーティファクトについては、正解となる元画像と縮小拡大画像を比較する学習原理からすると
現状の拡大モデルで既にアーティファクトをなくそうとはしているはずなわけで
アーティファクトを消すだけのモデルを作ったところで、ノイズ除去を二重に掛けるみたいな結果にしかならないんじゃないかな RCANは実行時間的にTTAはやってないっぽい?ので、TTA処理を付けたしたらどうなるか実験してみる。
トレーニングじゃなくて中身に手を出すのは初めてなのでまあ、多分どっかでこけるでしょ。
ソースコード読んだりGANの理論見たりしててふと思ったんだけど、
わざとアーティファクトを発生させるGeneratorを作って、
ある画像にアーティファクトが発生しているかどうかを見分けるDiscriminatorも作って。
ここで学習させたDiscriminatorをArtifact Loss関数として
そこらの超高解像の損失関数に、付け加えて
もともとの損失関数の出力を極力小さく保ちつつ、かつArtifact Lossも小さく保つモデルとか作れないのかな?
>>272画像指標は落ちそうだけど見た目は綺麗になるかもね Ryzen7でVulkan使って変換しようとしても
[0 AMD Radeon(TM) RX Vega 10 Graphics] queueC=1 queueT=2 memU=2 memDL=0 memHV=1
[0 AMD Radeon(TM) RX Vega 10 Graphics] fp16s=1 fp16a=0 int8s=1 int8a=0
vkCreateShaderModule failed -3
local_shader_module 0000000000000000 waifu2x_preproc_int8s created
ってなって変換できないんだけどだれか原因わからないかな?
知識なくてお手上げ…
ncnnをちゃんと -DNCNN_VULKAN=ON を付けてcmakeしてるか
waifu2x-vulkanのCMakeLists.txtの
include_directories、link_directoriesをちゃんと書き換えてるか
はどう?
ごめん、配布されてるバイナリを使ってるならドライバの問題かもしれない
CMakeLists.txtってのはフォルダにないみたいですね…
もうちょっといろいろ試してみます
>>276
自分も同じようになったけどGPUのドライバを更新したら使えるようになったよ >>280
ドライバ更新したらいけた!ありがとう〜 ・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
-100
+100
嘘だろw
別の写真じゃないのか? 比較してくれているサイトがあった
・LightroomとCamera Rawに「テクスチャ」スライダーが追加 肌を簡単に綺麗に出来る!?
(なぜかリンク貼ると怒るので記事のタイトルを検索してください)
この手法(中周波成分を操作する方法)、どこかで聞いたようなと記憶があるんだけど思い出せない。
SONYのテレビだったかレコーダーあたりでこの手法のようなことをアピールしていたような記憶があるのだけど…
(他メーカーも口には出さないが、隠し味程度に使っているようだけど)
アニメ向けにチューンしたらlive2d要らなくなるな
カメラが動いてないと実質同フレームからしか補完できないだろうし、動きのある実写向きだろうか
リミテッドアニメにはあまり効果が無さそうな気がする
テコすごいなぁ
waifu2x最大の欠点である輪郭の違和感や斜め線の不自然さが感じられない
>>297
オリジナルがSD(480i)しか残っていない素材に効きそうだよね
お試し版とかあればいいのだが >>300
一応あるんだね
誰かGUI化プリーズ!
ついでに、これって学習型超解像系では数少ない動画対応なわけだが、超解像実施時に同時に
インターレース解除も学習型で高品質にやってくれたらパーフェクトなんだけど、
さすがにそれは難しいのだろうか? インターレース解除なんて極端な話1フィールド分を縦2倍に拡大すればいいんでしょ
時間軸超解像だから下手に解像度落ちることも無いだろうし
あとはどのように間引きするかどうかと下手な編集でフィールドの順番狂う場合とかの補正だけど
KTGMCって引き延ばしはneedi3っぽいから、画質は今時のAIには大分及ばないんじゃないの
静止画を縦2倍拡大するでもなく、3次元的にAIが補完してくれたら、ずっと画質が上がりそうに思える
だよね
しかしディープラーニング系のインターレース解除の話って、なぜか出てこないよな
TecoGAN凄すぎるな
鎧の網目とか、従来の手法だと潰れて酷いことになってたのに
まだ論文読んでないけど、どうやって改善したのか見当もつかん
それで動画対応って、進化の段階2つくらいすっ飛ばしてる感ある
それは考え方が逆だろう
前後のフレームを参照できる動画だから静止画よりも綺麗に出来るわけで
テコは静止画に適用することはできるのだろうか?
前後フレームの比較が必須の動作であれば、同じ画像を2枚連続再生みたいにしても無理かな?
これに限った話ではないが、前後から元情報を多く参照することで画質を上げる動画の超解像は
その原理からして被写体が複雑な動きや速い動きをせず、カメラは止まっておらずかつ速すぎないと強く効果が発揮される
サンプルも全部そんな感じになってるし、そこから外れるような、例えば静止画を並べただけの動画とかは
元情報を増やしようがないので、既存の静止画の超解像と変わり映えのしないものしかできないだろう
学習済みモデルに適当な動画入れたけどあんまきれいにならんかった
やっぱそれなりに似た動画で訓練させないとだめだな
なあVBでGUIから実行ファイルに引数を渡すだけのソフトつくってるんやが・・・
複数のファイルを渡そうとすると変換自体はできるんだけど
「process successfully done」が表示されなくてファイルの出力ができないんだけどなんでや?
ちなみに↓みたいに1個ずつ処理する時はちゃんと出力される(同じディレクトリに保存される)
Dim waifu2x As String = """C:\waifu2x-converter_x64.exe"""
Dim hikisuu As String = " -i 入力元パス -m noise_scale --noise_level 1 --scale_ratio 1.6 --model_dir モデルのディレクトリ"
Dim p As System.Diagnostics.Process = System.Diagnostics.Process.Start(waifu2x, hikisuu)
もしかして、複数渡す時は-oを使って出力先指定しないとダメなのか?
向いている動画では2D超解像よりも細かいディティールを取り出せたりもするが、アーティファクトが結構強め
取り敢えず現状で汎用的に動画に使用するには、別ソフトで先にノイズ除去が必須かなあ
3DNR的なことを一緒に学習してくれれば
AVのモザイク部分を超解像で補間するのか。考えたな。
TecoGAN試してみた。
1070Ti(Mem 6Gb)だと、720x480を入力するとメモリが足りなくてエラーが出る。
720x480をリサイズして360x240にすると、1440x960(4倍)にしてくれるが、
解像度が上がったかよく分からない。
720x480→1440x960(2倍)の設定で、メモリエラーを吐かなくするにはどうしたらいいんだろう。
waifu2xの本家は拡大しない場合、ファイルサイズも小さくなって良かったんだけど
2x系の他のは大体大きくなっちゃうんね
本家は当分復帰できなそうだしなんかいいの無いかなぁ
商用ソフトウェアでディープラーニングを活用した画像拡大ソフトウェアとか出ないのかな?
出来てもニッチすぎて法人向けしか発売しないんじゃね
>>320
仕事で画像扱う人は解像度高い画像用意するからな >>748
ワイ「ア●ルの横のほくろかわいいね〜(ペロペロ」
ワイ「もう一回なめちゃお・・・
・・・・
ワイ「あれ消えた、どこ行った?」 RTX2080〜2060がマイナーアップデートされるっぽいが、2060のVRAMがいよいよ8GBになると、
メモリーを必要としやすいwaifu2xなどの画像処理ソフトの普及に貢献することになるのだろうか?
微妙じゃね
一般人からしたら2060ですら高いし、趣味で少し深層学習するやつらは既にtensorコアの数見て2070以上買ってるのでは
グラボの話してるとTesla欲しくなってくる
変換速度が更に速くなったのはいいけど2倍以上にも拡大出来るようになってほしいねえ
畳の目の部分とか凄い
ありがてぇ
最近の専ブラ規制はなんなのだよ…
lud20220918193111ca
このスレへの固定リンク: http://5chb.net/r/software/1539677484/ヒント:5chスレのurlに
http://xxxx.5ch
b.net/xxxx のように
bを入れるだけでここでスレ保存、閲覧できます。
TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
>50
>100
>200
>300
>500
>1000枚
新着画像
↓「【超解像】画像拡大ソフト総合スレ4【waifu2x】 YouTube動画>3本 ニコニコ動画>1本 ->画像>54枚 」を見た人も見ています:
・:
・32
・TeST
・ハロプロ筆頭扱いだったのにモーニング娘。を17歳で辞めて、ベビメタのダンサーで復帰って・・・
・【大雪警報】11日の今日、東京23区で積雪10mmのおそれ
・肴23845
・肴23450
・23450
・肴23458
・【天気】関東甲信 22日(月)大雪のおそれ 23区でも積雪の可柏ォ
・【中継LIVE】日本海側中心に大雪のおそれ 各地の様子 & 東北や北陸の山沿いで大雪 13日も雪が強まるおそれ
・絵文字
・NT配列
・奥野史子
・洋炉画像
・Teスト
・テスト
・テスト
・今年はモーニング娘。の卒業者無しってことで確定していいよね?
・【北海道】16日にかけ猛吹雪のおそれ 暴風 高波 交通影響に警戒を
・【台風13号】 東日本に接近 大雨のおそれ
・モーニング娘。'18春ツアーの日程キタ━━━━(゚∀゚)━━━━!!
・本田翼「モーニング娘。は惰性で聴いてた」
・【速報】神奈川・城山ダムで緊急放流へ 相模川氾濫のおそれ
・【台風21号】大阪 大東市の一部に避難指示 土砂災害のおそれ
・あきはらば
・死にたい
・【台風21号】滋賀 彦根市の一部に避難指示 芹川氾濫のおそれ
・【天気】北日本 日本海側中心に猛吹雪のおそれ 4日
・【台風21号】大阪 八尾市の一部に避難指示 土砂災害のおそれ
・【天気】28日朝にかけて 東日本で非常に激しい雨のおそれ
・【社会保障】介護保険料 計算ミスで今年度約200億円不足のおそれ
・紅白歌合戦にモーニング娘。'17出場せず!!! 4落選
・【地震】インドネシア ジャワ島の沖合でM6.8の地震 津波のおそれ
・モーニング娘。223
・モーニング娘。224
・一人で行くモーニング娘。'18 コンサート&イベント総合スレ part140
・【速報】 かぼちゃの馬車・スルガ銀行ショック拡大 物件所有の会社員ら自己破産のおそれ
・一人で行くモーニング娘。'19コンサートツアー春 〜BEST WISHES!〜 18Wishes
・日経225先物オプション実況スレ4107
・【超速報】non-no9月号にモーニング娘。'18 キタ━━━━(゚∀゚)━━━━!!【荒木優子との対談も】
・カーナビ
・Waterfox
・【モーニング娘。】 東北の星☆石田亜佑美ちゃんを家族総出で応援するスレ Part271 【10期メンバー】
・Fairies【フェアリーズ】[ワッチョイ]part.54
・10月にモーニング娘。'18の両A面シングルが出るっぽい件
・【日本沈没】記録的大雨のおそれ 土砂災害や川の氾濫に厳重警戒を
・森戸にモーニング娘愛が芽生えてて娘ヲタの俺感動した件><
・imageJの質問
・歯科助手の人
・普通校の正体
・MPC-BE 14
・きつねとけい
・vim Part 6
・レザボ245
・【火山】フィリピン ルソン島の火山、マヨン山が大規模噴火のおそれ
・【レッツノート】パナソニック PCバッテリー発火のおそれ 無料交換へ
・HEYHEYHEYにモーニング娘。18
・【回収】ダイソーの「あったか湯たんぽ」 中身が漏れてヤケドのおそれ 8万3000個回収
・AKB坂道系の真似して名前の後ろに数字つけた時にモーニング娘。の完全敗北を悟ったよな
・【速報】Mステウルトラフェスにモーニング娘。'18出演!!!!!!!!!!
・鞘師のいるところが真のモーニング娘。
・元モーニング娘。の吉澤逮捕Part.33
・弩級のゴーサインが最近巷でありがちな薄っぺらいゴミ曲なんだが・・・【モーニング娘。】
・【WHO】第2のエボラ熱か?東アフリカで「マールブルグ病」流行のおそれ 死亡率最大88%
・「ネット流行語アワード2018」今年話題になった言葉にモーニング娘。がランクイン!
05:31:44 up 20 days, 13:47, 0 users, load average: 11.01, 9.75, 9.60
in 0.072785139083862 sec
@0.072785139083862@0b7 on 092818
|