在 Kubernetes 上使用 Helm 安裝 Istio

在 Kubernetes 上使用 Helm 安裝 Istio 其實對於 Istio 到底解決了什麼問題,我沒有把握可以講得很清楚,就我粗淺地理解是為了更有效地簡化 Pod 間的溝通與管理,但好壞都要等實際

透過 Kubespray 在 Kubernetes 上安裝 Helm

透過 Kubespray 在 Kubernetes 上安裝 Helm 經過一段時間的發展 Kubernetes 目前是 container 調度工具中最受重視的,不過 Kubernetes 只是用來管理 container 的調度,該如何決定調度的計劃以及內容就成了新課題,而

透過 Kubespray 來架設 Kubernetes

透過 Kubespray 來架設 Kubernetes 最近剛好有機會可以參與專案的部署作業,雖然過去也持續進行過不同方式的 CI/CD,但真正部署至 Kubernetes 上則是全新的體驗,為了降低扯團隊

gRPC stream 如何傳送單一大物件

gRPC stream 如何傳送單一大物件 之前筆記 C# 搭配 gRPC 中使用 stream RPC 提到為了對於較大資料量以及即時性資料內容,可以透過 gRPC 的 stream RPC 來處理,不過官方範例是用在傳送 repeated 內

ASP.NET Core WebAPI 回應 406 Not Acceptable

ASP.NET Core WebAPI 回應 406 Not Acceptable 照著之前筆記 從 Empty 建立 ASP.NET Core Web API 從空專案開始建立 ASP.NET Core WebAPI ,過程中一切順利直到開始加入商業邏輯時卻出現意料外的錯誤,雖然事後覺得我應

從 Empty 建立 ASP.NET Core Web API

從 Empty 建立 ASP.NET Core Web API 之前曾經在筆記 建立ASP.NET Web API 專案的幾種方式- Yowko’s Notes 提到專案的起源分為兩派: 使用 Empty 專案範本再手動安裝需要的 framework 直接使用需要

gRPC 出現 `8 RESOURCE_EXHAUSTED` 錯誤

gRPC 出現 8 RESOURCE_EXHAUSTED 錯誤 隨著系統一步步成形,資料量也愈來愈大,在原本只是先求功能正常而未進行資料分頁的功能逐漸露出原型,今天就來筆記 gRPC 在傳送龐大資料可

在 ASP.NET Core 中將 log 寫至 GCP 的 Stackdriver

在 ASP.NET Core 中將 log 寫至 GCP 的 Stackdriver 之前剛好有個功能在內部環境運作時都一直出現錯誤,經過一輪測試後決定將功能搬至 GCP 的 GKE 上執行來確認問題是不是內部環境設定所

嘗試為gRPC 中的 stream RPC 加上 Unit Test

嘗試為gRPC 中的 stream RPC 加上 Unit Test 之前筆記 C# 搭配 gRPC 中使用 stream RPC 紀錄到在 gRPC 中使用 stream RPC 的操作語法,但實際應用在專案上時卻卡關,主因是單元測試出現錯誤,

C# 搭配 gRPC 中使用 stream RPC

C# 搭配 gRPC 中使用 stream RPC gRPC 允許使用四種則型的 service 方法: 簡單 RPC (simple RPC) 主機端串流 RPC (server-side streaming RPC) 用戶端串流 RPC (client-side streaming RPC) 雙向串流 RPC (bidirectional streaming RPC) 過去的筆記都是使用 簡單 RPC (simple RPC

ASP.NET Core 中 Controller 與 ControllerBase 的差別

ASP.NET Core 中 Controller 與 ControllerBase 的差別 之前筆記 ASP.NET Core 中 AddMvc() 與 AddMvcCore() 的差別 提到 AddMvc() 與 AddMvcCore() 的差別,今天剛好在整理如何從 Empty 專案加入 Web API 時聯想到似乎沒有很清楚實際差別,趁著自己查資

ASP.NET Core 中 AddMvc() 與 AddMvcCore() 的差別

ASP.NET Core 中 AddMvc() 與 AddMvcCore() 的差別 ASP.NET Core 將過去 ASP.NET MVC 與 ASP.NET Web API 兩套 framework 整合在一起,對於開發人員是種福音:不用再想到底該引用哪個 NameSpace、不用再為該繼承哪個

調整 Kafka 中 Topic 的 Partition 數量

調整 Kafka 中 Topic 的 Partition 數量 最近積極在針對 Kafka 做些設定調整與效能測試,其中也包含了 Topic 的 Partition 數量產生的影響,也就常常需要調整 Topic 中的 Partition 數量來檢視對效能的影響,

建立 Kafka 的 Topic

調整 Kafka 中 Topic 的 Partition 數量 最近系統效能瓶頸主要落在在 Kafka 上,所以經常需要對 Kafka 做些設定調整與效能測試,而在那之前首先就是要建立 Topic,過去都是透過 kafka