Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
23回アルゴリズムコンテスト 1位解法
Search
catla
December 19, 2019
Research
6
670
23回アルゴリズムコンテスト 1位解法
2019年12月19日に大分大学で開かれたPRMU研究会における発表資料になります。
catla
December 19, 2019
Tweet
Share
More Decks by catla
See All by catla
ベイズ深層学習(6.3)
catla
2
230
ベイズ深層学習(6.2)
catla
3
230
[読み会資料] Federated Learning for Vision-and-Language Grounding Problems
catla
0
310
ベイズ深層学習(5.1~5.2)
catla
0
230
ベイズ深層学習(4.1)
catla
0
460
ベイズ深層学習(3.3~3.4)
catla
19
11k
ベイズ深層学習(2.2~2.4)
catla
6
1.3k
Learning Lightweight Lane Detection CNNs by Self Attention Distillation(ICCV2019)の紹介
catla
0
600
TGS Salt Identification Challenge 12th place solution
catla
3
12k
Other Decks in Research
See All in Research
機械学習と数理最適化の融合 (MOAI) による革新
mickey_kubo
1
450
AlphaEarth Foundations: An embedding field model for accurate and efficient global mapping from sparse label data
satai
3
650
Multi-Agent Large Language Models for Code Intelligence: Opportunities, Challenges, and Research Directions
fatemeh_fard
0
120
AIスパコン「さくらONE」のLLM学習ベンチマークによる性能評価 / SAKURAONE LLM Training Benchmarking
yuukit
2
930
[論文紹介] Intuitive Fine-Tuning
ryou0634
0
160
SREのためのテレメトリー技術の探究 / Telemetry for SRE
yuukit
13
2.7k
AIスーパーコンピュータにおけるLLM学習処理性能の計測と可観測性 / AI Supercomputer LLM Benchmarking and Observability
yuukit
1
420
まずはここから:Overleaf共同執筆・CopilotでAIコーディング入門・Codespacesで独立環境
matsui_528
3
1k
データサイエンティストの業務変化
datascientistsociety
PRO
0
110
snlp2025_prevent_llm_spikes
takase
0
420
音声感情認識技術の進展と展望
nagase
0
420
日本語新聞記事を用いた大規模言語モデルの暗記定量化 / LLMC2025
upura
0
410
Featured
See All Featured
Primal Persuasion: How to Engage the Brain for Learning That Lasts
tmiket
0
200
コードの90%をAIが書く世界で何が待っているのか / What awaits us in a world where 90% of the code is written by AI
rkaga
58
41k
Navigating Team Friction
lara
191
16k
Design in an AI World
tapps
0
100
Heart Work Chapter 1 - Part 1
lfama
PRO
3
35k
SEO for Brand Visibility & Recognition
aleyda
0
4.1k
Data-driven link building: lessons from a $708K investment (BrightonSEO talk)
szymonslowik
1
860
AI Search: Implications for SEO and How to Move Forward - #ShenzhenSEOConference
aleyda
1
1k
The Illustrated Guide to Node.js - THAT Conference 2024
reverentgeek
0
220
16th Malabo Montpellier Forum Presentation
akademiya2063
PRO
0
33
My Coaching Mixtape
mlcsv
0
18
Let's Do A Bunch of Simple Stuff to Make Websites Faster
chriscoyier
508
140k
Transcript
ճΞϧΰϦζϜίϯςετ Ґ ղ๏ ஜେֶ ใֶ܈ ใՊֶྨ ஜେֶώϡʔϚϯίϯϐϡςʔγϣϯݚڀࣨ ॴଐ OBPLJLBUTVSB!IDPNQDTUTVLVCBBDKQ
ܡ ঘً 13.6ݚڀձ!େେֶ
ίϯςετ֓ཁ ίϯςετͷظؒɿ d ʢϲ݄ʣ ՝༰ɿ ( + 48 &
+ 3!%!% '(")accuracy* + $#+ 119,997 &#+ 16,387 1+ 388,146
લॲཧ
લॲཧ 標準正規分布の確率密度関数 を[-1, 1]の区間で等間隔で サンプリングしたベクトル。 二値化画像を横に合計を取っ たベクトルを見ると、文字部 分は山状になっている。
Ϟσϧͷશମ૾
݁Ռ 手元で評価( Cross validation )した時の認識率は、 ResNet < OctConv ResNet <
DenseNet < Inception-v4 < SE-ResNeXt となった。 モデル 認識率 OctConv ResNet50( 事前学習無し ) 89.59% SE-ResNeXt101( 事前学習有り ) 90.23% アンサンブル (SE-ResNeXt, DenseNet, Inception-v4) 90.63% 順位 最終結果のスコア 1 位 90.63% 2 位 89.35% 3 位 88.95%
Random CropやRandom Shiftといった基本的な Augmentationに加え、分割位置に対してロバストにな るように前処理によって得られた分割位置を学習時にラ ンダムで上下に少しずれるような処理を行なった。 また、学習率のスケジューリングをWarmupとRestart有 りCosine Annealingにすることで収束速度と精度が共に
向上した。
࣮ݧઃఆ ࠷ऴతʹɺϞσϧͷΞϯαϯϒϧʢՃॏฏۉʣͨ͠ͷ͕࠷ߴਫ਼ͱͳͬͨɻϞσϧɺಛྔந ग़Λߦ͏CBDLCPOF͕ҟͳΔ͚ͩͰ͋Γɺ͜ΕΒશͯ*NBHF/FUͰࣄલֶश͞Ε͍ͯΔɻ ˔ CBDLCPOFɿ 4&3FT/F9U %FOTF/FU *ODFQUJPOW ˔ ଛࣦؔɿ
$SPTT&OUSPQZ-PTT ˔ όοναΠζɿ ˔ ࠷దԽؔɿ NPNFOUVN4(%ʢNPNFOUVN XFJHIUEFDBZʣ ˔ εέδϡʔϥɿ 4(%3ʢMSɿd FQPDIDZDMFʣ ˔ ೖྗղ૾ɿY ˔ FQPDIɿ ˔ (16ɿ 5FTMBW (# (59 (# ˔ ͦͷଞɿ.JYFE1SFDJTJPOͰֶश
·ͱΊ • モデルは、特徴量抽出器としてImageNet等で成果を出しているCNNアーキテクチャ、クラス分類 器としては、隣接した画像の特徴を考慮するためにGRUを使用したネットワークを結合した構成。 • 前処理では、大津の二値化をしようして、良さそうな分割位置を推定。 • 分割位置に対してモデルがロバストに学習できるように学習時にランダムで位置を変化させる。 • 学習率をSGDRで変化させると大幅に精度と収束速度が上昇。
• 最も精度が高くなったモデルは、SE-ResNeXt, DenseNet, Inception-v4をアンサンブルさせたモ デル。 コードは公開しております。 https://github.com/katsura-jp/alcon23