投稿日:
更新日:

Qiita Hackathon 2024 に参戦してきました

Authors

※ 本ブログは 「Qiita - Qiita Hackathon 2024 予選通過しました」 にも投稿した内容です。


目次

はじめに

先日開催された Qiita Hackathon 2024 に参加をし、無事に予選を通過してきたので、振り返りも兼ねてブログを書こうと思います。

メンバー紹介

本ハッカソンには、同じく 24 新卒としてサイバーエージェントに入社した他 4 名のメンバーと一緒に参戦しました。

Team:GAUDI

gaudi.png

Qiita Hackathon とは

https://qiita.com/official-campaigns/hackathon/2024

qiita-hackathon-2024.png

開催概要

Qiita Hackathon とは、日本最大級のエンジニアコミュニティ Qiita(Qiita 株式会社)が開催しているハッカソンです。 本ハッカソンはオンラインでの予選と、予選を通過した計 10 チームによるオフライン会場での本選の計 2 回に渡り開催されます。

最優秀賞の賞金は 50 万 だそうです!

【予選】

  • 2024 年 9 月 21 日(土)・2024 年 9 月 22 日(日)
  • オンライン開催

【本選】

  • 2024 年 10 月 19 日(土)・2024 年 10 月 20 日(日)
  • オフライン開催(東京都渋谷区 GMO インターネットグループ グループ第 2 本社)

審査基準

審査基準は以下の 4 つとなっています。

  • 課題設定

    テーマに沿った課題を設定している作品であるか

  • 課題解決

    課題解決や価値提供をしている作品であるか

  • 技術力

    高度な技術が使われ、優れた UX を提供している作品であるか

  • プレゼンテーション

    説得力のある内容を時間内に伝えられているか

テーマ

予選・本選でテーマが分かれており、ともに当日発表されます。 また、成果物は、Web サービス、ネイティブアプリケーション、IoT 等、プログラミングを用いたものならば形態不問でした。

今回の予選のテーマは、ずばり

theme.png

でした。

ん、...どういうこと?

テーマに対する詳細な説明はありませんでした 😇 どう解釈するかも含めてハッカソンしてね〜ということらしいです!

審査スキーム

出場 81 チーム が A / B 2 つのブロックに分かれて予選を競い、上位 5 チームずつ選出された 計 10 チーム が本選進出となります。

制作物

thumbnail.png

さて、まずテーマですが、『オープンって何...??』これが正直な感想でした。

時間も限られているので、スケジュールも意識しながらチームでブレストしました。

最終的なアイデアとして、我々のチームは "ヘルプマーク" に着目することにしました。

例えば、公共交通機関を利用すると、赤十字マークのラベルをカバンやリュックに提げている人を見かけることがあるかと思います。

helpmark.png

このラベルはヘルプマークといって、援助や特別な配慮を必要としている人が、そのことを周囲の人に知らせるためのものです。 見かけた際には、席を譲ったり、声を掛けたり、周りが配慮してあげる ことが要求されます。1

presentation-1.png

しかし、昨今ではあらゆる場面で多くの人がスマートフォンに注視しており、近くにヘルプマークを付けた人がいても気づかないことが多いのではないでしょうか。 また、ヘルプマークの存在自体を知らない人もいるかもしれません。

ヘルプマークの課題は、いかにしてヘルプマークに気づいてもらえるか(その存在をオープンにしていくか)という根本から解決する必要があるということです。

東京都福祉局では、近年、民間企業への働きかけを活発化させる等、ヘルプマーク普及のための啓発活動が進められているようです。

このような背景を受け、デジタル化したヘルプマークが普及すれば、公共の福祉や医療の面での貢献が期待できるのではないかと考えました。

そこで、ヘルプマークにビーコンを仕込んでおき、Bluetooth(BLE)による近距離無線通信を用いて、近くのスマートフォンに検出させる仕組みとサービスを作ることにしました。

難しく説明してもあれですが、似たような仕組みに、AirTag によるトラッキングがあります。 AirTag は BLE や UWB を使用して、近くの Apple デバイス(他人の所有物を使って)と通信し、これによって AirTag の現在の位置を推定します。

この仕組みを利用することで、ビーコンを搭載したヘルプマークを持った人が近くに来ると、近隣のスマートフォンが検出可能なため、要介助者の存在に気づくことができます。

つまり、『ヘルプをオープン』 できるようになります。

presentation-2.png

へるぷくん+

話題や機能の展開は色々できそうですが、所詮 2 日間しかないのでミニマムのアイデアで開発を進めることにします。

サービス名:『へるぷくん+』

サービスモデル(コア機能を意識)

  • 介助者を要求するケアラー(Carer)と、ケアラーを助けるヘルパー(Helper)をペルソナ定義
  • ヘルプマーク所持者であるケアラーは、介助内容をアプリケーションに登録
  • ビーコン検出したヘルパーは、内容に応じた介助動作に移る(誰でも正義のヒーローになることができる!)

実装機能(シンプルに止める)

  • BLE ビーコン検出機能
  • ユーザサイド情報の管理機能

プレビュー

demonstration-1.png demonstration-2.png

preview.png

選定技術

  • ネイティブクライアント
flutter.pngble.png
  • バックエンド
go.pnggrpc.png
  • インフラ / Cloud Platform
gke.pngenvoy.png

モバイルアプリケーションのネイティブクライアントは、Flutter を使用し、バックエンドは Go で実装しました。 クライアント・バックエンド間の通信には gRPC を使用しています。

通常であれば、RPC は異なるコンポーネント(マイクロサービス)間でメソッドをコールするために用いることが一般的だと思いますが、今回は、Protocol Buffer(IDL)を用いたコード生成自動化の恩恵を受けるために採用しました。 これにより、ものの短時間で数十個程度の API を一気に生やすことができました。

また、実際のサービス運用も視野に入れ、拡張性を意識したインフラを構築するべく、GKE をベースとしたエコシステムを Cloud Platform として整備しました。 興味本位で、データベースには Cloud Spanner を使用しています。

担当したインフラ部分について少し深ぼって紹介してみたいと思います。

アーキテクチャ

ざっくりとしたインフラ構成を紹介します。

architecture.png

GKE をベースに CI/CD はじめ、軽く Observability 基盤まで構築してみました。 その他、ユーザ認証には Firebase Authentication や Cloud Run Functions を使用しています。

Envoy で gRPC 通信をプロキシする

アーキテクチャを構築する上で一点注意しなければならなかったのが、GKE Ingress を使用した際の gRPC 負荷分散に関してです。

GCP において、特に GKE Ingress を使用した L7 の負荷分散を行う際は、GCLB が gRPC のヘルスチェックに対応していないため、トラフィックをバックエンドワークロードに流すことができません。

grpc-proxy.png

ちなみに、AWS ALB は gRPC のヘルスチェックをサポートしています。 おそらく、ALB 自体が Nginx Ingress Controller ベースで、リバースプロキシを内部的に噛ませることで gRPC に対応しているのではないかと思われます。

https://aws.amazon.com/jp/builders-flash/202212/alb-grpc-balancing/

そのため、GCLB で gRPC のヘルスチェックをパスするために、別の方法を考える必要があります。

考えられる対応方法としては以下 3 つがあります。

① アプリケーションに HTTP/2 で応答するヘルスチェック用のエンドポイントを追加する

こちらは、grpc-gateway 等を用いて、gRPC リクエストを REST に変換して HTTP/2 のヘルスチェックに対応します。

また、GCLB はデフォルトのヘルスチェックプロトコルとして、HTTP/1.1 を使用するため、このようなケースでは別途、Service リソースにアノテーションを明示して、HTTP/2 によるヘルスチェックを構成する必要があります。

apiVersion: v1
kind: Service
metadata:
  annotations:
    cloud.google.com/app-protocols: '{"my-port":"HTTP2"}'

https://cloud.google.com/kubernetes-engine/docs/how-to/ingress-http2

② アプリケーション Pod の前段にリバースプロキシ Pod を置きヘルスチェックに応答する

こちらは、全てのリクエストを一旦、リバースプロキシとして機能する Pod が受け取り、その後、アプリケーション Pod にフォワーディングするというものです。

③ アプリケーションの Pod にサイドカーとしてリバースプロキシコンテナを配置してヘルスチェックに応答する

こちらは、サイドカーコンテナとしてデプロイされたプロキシ Pod がヘルスチェックに応答し、それ以外のリクエストをアプリケーション Pod にフォワーディングするというものです。 ② との違いは、サイドカーとして機能するため、クラスタに対して単一の Pod としてデプロイできる点です。

ベストプラクティスに沿って考えれば、自ずと選択肢は 1 or 3 のパターンになると思います。 しかし、1 はネットワーク関連の事情をアプリケーション側で面倒見てあげる必要があるため、あまり良い方法とは思えず、結果、ネットワークプロキシの処理はインフラ側で担える 3 の方法を取ることにしました。

3 では、GCLB のヘルスチェックルールをうまく利用します。

GCLB(GKE Ingress)は次の流れでヘルスチェックを作成します。

  1. BackendConfig があればそれを使う
  2. Pod に readinessProbe が設定されている、かつ条件を満たす場合それを使う
  3. 1, 2 を満たさない場合、デフォルト値(/)を使う

https://cloud.google.com/kubernetes-engine/docs/concepts/ingress#health_checks

まず、以下のような Envoy Config を用意し、サイドカーコンテナをデプロイします。

static_resources:
  listeners:
    - name: listener_https
      address:
        socket_address:
          address: 0.0.0.0
          port_value: 8443
      listener_filters:
        - name: envoy.filters.listener.tls_inspector
          typed_config:
            '@type': type.googleapis.com/envoy.extensions.filters.listener.tls_inspector.v3.TlsInspector
      filter_chains:
        - filters:
            - name: envoy.filters.network.http_connection_manager
              typed_config:
                # (省略)
                http_filters:
                  - name: envoy.filters.http.lua
                    typed_config:
                      '@type': type.googleapis.com/envoy.extensions.filters.http.lua.v3.Lua
                      inline_code: | ## ヘルスチェックに応答するための Lua スクリプトを埋め込む
                        package.path = "/etc/envoy/lua/?.lua;/usr/share/lua/5.1/nginx/?.lua;/etc/envoy/lua/" .. package.path
                        function envoy_on_request(request_handle)
                          if request_handle:headers():get(":path") == "/healthz" then
                            local headers, body = request_handle:httpCall(
                              "local_admin",
                              {
                                [":method"] = "GET",
                                [":path"] = "/clusters",
                                [":authority"] = "local_admin"
                              },
                              "",
                              5000
                            )

                            if body == nil then
                              request_handle:logInfo("Health check failed: no body returned")
                              request_handle:respond({[":status"] = "503"}, "unavailable")
                              return
                            end

                            request_handle:logInfo("Health check body: " .. body)

                            local function is_cluster_healthy(body)
                              local pattern = "grpc_backend::%d+%.%d+%.%d+%.%d+:%d+::health_flags::healthy"
                              return string.match(body, pattern) ~= nil
                            end

                            if is_cluster_healthy(body) then
                              request_handle:respond({[":status"] = "200"}, "ok")
                            else
                              request_handle:logInfo("Health check failed: grpc_backend not healthy")
                              request_handle:respond({[":status"] = "503"}, "unavailable")
                            end
                          end
                        end
                  - name: envoy.filters.http.router
                    typed_config:
                      '@type': type.googleapis.com/envoy.extensions.filters.http.router.v3.Router
          transport_socket:
            name: envoy.transport_sockets.tls
            typed_config:
              '@type': type.googleapis.com/envoy.extensions.transport_sockets.tls.v3.DownstreamTlsContext
              common_tls_context:
                alpn_protocols:
                  - h2 ## HTTP/2 を受け入れる
                  - http/1.1
                tls_certificates:
                  - certificate_chain:
                      filename: '/etc/envoy/certs/tls.crt'
                    private_key:
                      filename: '/etc/envoy/certs/tls.key'

  clusters:
    - name: grpc_backend
      connect_timeout: 0.25s
      type: STRICT_DNS
      lb_policy: ROUND_ROBIN
      typed_extension_protocol_options:
        envoy.extensions.upstreams.http.v3.HttpProtocolOptions:
          '@type': type.googleapis.com/envoy.extensions.upstreams.http.v3.HttpProtocolOptions
          explicit_http_config:
            http2_protocol_options:
              max_concurrent_streams: 100
      load_assignment:
        cluster_name: grpc_backend
        endpoints:
          - lb_endpoints:
              - endpoint:
                  address:
                    socket_address:
                      address: localhost ## localhost:8080 にトラフィックを転送する
                      port_value: 8080
      health_checks:
        - timeout: 1s
          interval: 1s
          no_traffic_interval: 1s
          unhealthy_threshold: 2
          healthy_threshold: 2
          tcp_health_check: {}

次に BackendConfig を定義して、ヘルスチェック先を /healthz(z-pages)に向けます。

apiVersion: cloud.google.com/v1
kind: BackendConfig
metadata:
  name: envoy-proxy-backend-config
spec:
  healthCheck:
    checkIntervalSec: 30
    timeoutSec: 10
    healthyThreshold: 1
    unhealthyThreshold: 3
    type: HTTP2
    requestPath: /healthz
    port: 8443

これで、ヘルスチェック(downstream)に対しては Envoy が 200 応答を返し、それ以外の gRPC 通信は upstream(アプリケーション Pod)に流してくれます。 また、Envoy は常に upstream が healthy かを確認してからヘルスチェックに応答するため、アプリケーション Pod が何らかの理由により停止した場合はトラフィックを、他の Pod へ転送するように GCLB に促すことができます。

以上より、1(BackendConfig)を利用してヘルスチェックをパスさせることができました。

実際に Ingress を describe すると、バックエンドステータスが HEALTHY になっていることが確認できます。

backend-helthcheck-status.png

今回は、突貫工事的に Envoy でプロキシする方法をとっていますが、実際の運用でバックエンドが複雑化してきたら、ちゃんとサービスメッシュを整備した方が良さそうです。

おわりに

今回は久しぶりにハッカソンに参加をしたので、振り返りも兼ねて Qiita を書いてみました。 アイデア面でも技術面でも久しぶりにサービスについて考える機会になったし、技術についても深い学びがありました。

そして何より予選を通過することができて良かったです!

本選でも新たな学びを作りつつ、最優秀賞を狙って頑張りたいと思います!

他の参加者ブログ

他のグループも非常にレベルの高いプロダクトがいくつもありました! いくつか他の参加者のブログを紹介したいと思います!

Footnotes

  1. https://www.fukushi.metro.tokyo.lg.jp/shougai/shougai_shisaku/helpmark.html