ใครที่ทำงานสาย Data Engineering, Machine Learning Pipeline หรือ DevOps น่าจะเคยรู้จักและลองใช้งาน Apache Airflow กันมาบ้างแล้ว
Airflow 3 มาแล้ววว!!! ทำไมถึงควรอัปเกรด และมีอะไรใหม่ที่น่าสนใจ?

ใครที่ทำงานสาย Data Engineering, Machine Learning Pipeline หรือ DevOps น่าจะเคยรู้จักและลองใช้งาน Apache Airflow กันมาบ้างแล้ว
ทำไมทุกคนถึงใช้ Cloud? ทุกคน เคยสงสัยกันไหมว่าทำไมตอนนี้ใครๆ ก็หันมาใช้ Cloud กันเยอะแยะเต็มไปหมด ก็เพราะว่ามันช่วยให้เราทำงานได้เร็วขึ้น สะดวกขึ้น แถมไม่ต้องคอยดูแลเซิร์ฟเวอร์เองให้ยุ่งยากด้วยนะ แต่ปัญหาคือ Cloud สมัยนี้มันมีหลายเจ้าเหลือเกิน ทั้ง AWS, Azure, Google Cloud, IBM Cloud… โอ้โห แล้วเราจะเลือกใช้เจ้าไหนดีล่ะ? นี่แหละคือคำถามยอดฮิต เมื่อก่อนพี่ก็คิดนะว่า ถ้าจะใช้ Cloud ก็ต้องเลือกเจ้าเดียวสิ ไม่งั้นคงจะวุ่นวายตายชักเลยกับการต้องจัดการหลายๆ แพลตฟอร์ม แต่พอได้มารู้จักกับ Multi-Cloud กับ Hybrid Cloud เท่านั้นแหละ ทุกอย่างก็เริ่มกระจ่างขึ้นมาทันทีเลยว่า “อ๋อ…จริงๆ แล้วเราสามารถใช้ Cloud หลายๆ เจ้าได้นะ เพื่อให้เหมาะกับความต้องการขององค์กรเราไง” Multi-Cloud คืออะไร? ลองจินตนาการดูนะว่า Multi-Cloud ก็เหมือนกับการที่เรามีเพื่อนซี้หลายคนที่มีความเก่งกาจแตกต่างกันไปน่ะ เราเลือกใช้บริการจาก Cloud หลายๆ เจ้าในเวลาเดียวกัน เพราะแต่ละเจ้าเขาก็มีจุดเด่นไม่เหมือนกัน AWS อาจจะเด่นเรื่องการประมวลผลและการเก็บข้อมูลขนาดใหญ่ Azure อาจจะเจ๋งเรื่องการเชื่อมต่อกับเทคโ… Continue reading Multi-Cloud หรือ Hybrid Cloud เลือกอันไหนดี?
เคยไหมคะ? ที่ต้องนั่งจ้องหน้าจออยุ่ในโลกของไฟล์ Groovy script , Terraform หรือ Ansible playbook ที่ยาวเหยียดเป็นกิโล มีความซับซ้อนเพื่อควบคุม CI/CD Pipeline ของเรา ไหนจะการเตรียม Infrastructure บน AWS, Azure งานเหล่านี้สนุกก็จริง แต่ก็เปลืองเวลาและพลังงานไม่น้อย
Anyone working in DevOps knows well that our job is full of many tasks—ranging from complex, brain-intensive work to small, repetitive tasks that are time-consuming but necessary, such as deploying applications, analyzing logs, troubleshooting issues, or monitoring systems. But nowadays, AI-powered DevOps helps make our work life much easier.
เวลาทีม DevOps ต้องคอยดูแลระบบ เช่น การปล่อยโค้ดขึ้นเซิร์ฟเวอร์ การตรวจสอบระบบ หรือการแก้ปัญหาที่เกิดขึ้นแบบเร่งด่วน ขั้นตอนเหล่านี้จะเต็มไปด้วยโค้ดยาว ๆ และสคริปต์ซับซ้อน เมื่อก่อนพี่เองก็มองว่าเป็นเรื่องที่เข้าใจยาก และทำได้เฉพาะคนที่เก่งเทคโนโลยีจริง ๆ เท่านั้น แต่พอได้รู้จักกับ Low-Code และ No-Code DevOps ทุกอย่างก็เปลี่ยนไปเลย มันเหมือนมีผู้ช่วยที่ทำให้เรื่องยาก ๆ กลายเป็นเรื่องง่ายและจับต้องได้มากขึ้น Low-Code และ No-Code คืออะไร? – Low-Code คือการใช้เครื่องมือช่วยให้การเขียนโค้ดนั้นลดลงเยอะ และช่วยให้ทำงานได้เร็วขึ้น – No-Code: คือไม่ต้องเขียนโค้ดเลย ใช้การลากวาง คลิกเลือก กำหนดเงื่อนไขต่าง ๆ ผ่านหน้าจอแทน สรุปง่าย ๆ ก็คือ จากเดิมที่ต้องนั่งพิมพ์ตัวหนังสือเต็มจอ ตอนนี้เปลี่ยนเป็น “กดเลือก ลากวาง” เหมือนต่อบล็อกของเล่นก็ทำให้งานสำเร็จและเร็วขึ้นมาก ยกตัวอย่างให้เห็นภาพ ถ้าทีมพี่เจอปัญหา เวลาอัปเดตโปรแกรมขึ้นระบบ (Deployment) ปกติต้องนั่งเปิด Log หาสาเหตุเอง แล้วค่อยแจ้งทีมที่เกี่ยวข้อง ซึ่งใช้เวลานานและเสียโอกาสหลายอย่าง แต่พอพี่ลองนำเครื่องมือ No-Code มาช่วย เช่น ตั… Continue reading Low-Code และ No-Code DevOps เร่งสปีดองค์กรได้เร็วกว่า ในสไตล์พี่สาวเล่าให้ฟัง
หลายๆองค์กรที่ทำงานแบบ Agile หรือ Scrum มักจะคุ้นชินกับ Jira เครื่องมือที่ใช้จัดการ และ Track การทำงานของทีม แต่รู้ไหมว่าเรายังนำ Jira มา Automate ช่วยลดเวลาและเพิ่มประสิทธิภาพการทำงานได้ เพียงใช้ Jira API ร่วมกับ Webhook นั่นเอง วันนี้คุณแพรว จากทีม Platform Services จะมาแชร์ตัวอย่างการใช้งานพร้อมสรุปข้อดี ข้อจำกัดให้เข้าใจง่ายๆใน 1 นาทีค่ะ Jira API คืออะไร? Jira API คือ การสั่ง Jira ด้วยการ Programming โดยตรง ตัวอย่างที่เราทำได้ เช่น1. อ่านข้อมูลของการ์ด Jira /rest/api/3/issue/{issueIdOrKey}2. เพิ่มคอมเม้นต์ในการ์ด Jira /rest/api/3/issue/{issueIdOrKey}/comment3. เลื่อนสถานะของการ์ด /rest/api/3/issue/{issueIdOrKey}/transitions Jira webhook คืออะไร? คือ กลไกที่ใช้ส่งข้อมูล Jira ไปยัง App หรือ Web Application เมื่อเจอเหตุการณ์หรือเงื่อนไขที่กำหนด ตัวอย่างการใช้งานจริง เนื่องจากการทำงานจริงจะมีการจำกัดสิทธิ์เข้าถึง Git ซึ่ง Flow จะเป็นการแจ้งเจ้าของ Project ให้ Grant สิทธิ์โดยการเพิ่มชื่อและข้อมูลอื่นๆอีกหลายขั้นตอน แต่พอเรานำเอา Jira มา Automate ร่วมกับ Jenkins ขั้นตอน Manual ต่างๆจะหา… Continue reading Jira Automation ช่วยทีมทำงานได้ไวขึ้นจริง
บทความนี้อธิบายเกี่ยวกับ KEDA ซึ่งเป็นเครื่องมือเสริมสำหรับ Kubernetes ที่ช่วยให้การสเกลแอปพลิเคชันทำงานตามภาระงานจริงจากภายนอก แทนการอิงตาม CPU/Memory แบบดั้งเดิม โดยชูจุดเด่นเรื่องการสเกลเชิงรุก (Proactive Scaling) และการสเกลลงเหลือศูนย์ (Scale to Zero) เพื่อเพิ่มประสิทธิภาพและบริหารจัดการต้นทุน…
เวลาเราทำงานบน Databricks กันจริง ๆ ส่วนใหญ่จะไม่ใช่แค่รันโน้ตบุ๊กเล่น ๆ ใน dev อย่างเดียวใช่ไหมครับ พอระบบเริ่มโตขึ้น เราก็ต้องมีทั้ง dev, staging, prod และต้องคอยจัดการ jobs, pipelines, dashboards, ML models ให้มันทำงานเหมือนกันทุก environment
ถ้าเรายังต้องมานั่ง config ทีละจุดใน UI ก็คงปวดหัวพอสมควร แถมเสี่ยงเจอปัญหา “ทำไมของ dev รันได้ แต่ของ prod พัง”
นี่แหละครับคือเหตุผลที่ Databricks Asset Bundles (DAB) ถูกสร้างขึ้นมา
ใครที่ทำงานกับ Kubernetes หลาย Cluster ทั้ง Dev, Staging หรือ Production จะรู้ว่าการใช้ Kubectl กับไฟล์ Config เยอะ ๆ จะเห็นภาพรวมทั้งระบบได้ยาก วันนี้จึงขอเชิญ คุณเตย Platform Services Engineer มาช่วยแชร์ IDE Tools อย่าง Lens จาก Mirantis ซึ่งเป็น Kubernetes IDE ช่วยจัดการ Cluster ผ่าน Dashboard เดียวได้ง่ายๆ ซึ่งจะมีอะไรบ้างนั้นตามไปอ่านกันค่ะ Lens นั้นช่วยเราดูสถานะ Cluster, Node, Pod, Service และ Workload ต่าง ๆ รวมถึงดู Log และ Metric ของแต่ละ Resource ได้ทันทีโดยไม่ต้องติดตั้งเครื่องมือเสริม และยังรองรับ หลาย Cluster พร้อมกันได้ สลับ Environment ต่างๆเร็วขึ้น ลดความยุ่งยากด้านการจัดการ Context ด้วยตัวเอง สำหรับคนที่ยังถนัดใช้ Command Line ก็สะดวกเพราะ Lens มี Built-in Terminal ให้พิมพ์ Kubectl ได้เลยและยังดูภาพรวมระบบใน Dashboard ได้ในที่เดียว อีกข้อดีคือ Lens มี ระบบ Extensions ให้เพิ่มฟีเจอร์เสริมได้ เช่น Plugin สำหรับ Monitoring, Storage หรือวิเคราะห์ Performance ของ Workload ทำให้ Lens เป็นทั้งเครื่องมือดูข้อมูล และเป็นศูนย์กลางจัดการ Kubernetes ที่ปรับแต่งได้ตามทีมและองค์กร… Continue reading DevOps Insider: Kubectl เยอะจนงง? ลองใช้ Lens แล้วจะเห็นภาพชัดทันที
ไทยพาณิชย์ จูเลียส แบร์ เป็นบริษัทร่วมทุนระหว่างธนาคารไทยพาณิชย์ (SCB) และ Julius Baer ที่มุ่งมั่นให้บริการโซลูชันทางการเงินที่ตอบโจทย์สำหรับลูกค้าชาวไทยทั่วเอเชีย…