Namespace ဆိုတာကို အရိုးရှင်းဆုံး အဓိပ္ပာယ်ဖွင့်ရရင်တော့ ကုဒ်တွေကို စနစ်တကျ စုစည်းသိမ်းဆည်းထားတဲ့ "ကွန်တိန်နာ (Container)" သို့မဟုတ် "နာမည်ပေးစနစ်" တစ်ခု ဖြစ်ပါတယ်။ အောက်ပါ အချက်အလက်တွေနဲ့ အကျယ်တဝင့် လေ့လာကြည့်ရအောင် - ၁။ ဘာကြောင့် Namespace ကို သုံးရတာလဲ? (The "Why") • ကွန်ပျူတာထဲမှာ Homework.docx ဆိုတဲ့ နာမည်တူ ဖိုင်နှစ်ခုကို Folder တစ်ခုတည်းမှာ သိမ်းလို့မရပါဘူး။ • ဒါပေမဲ့ English ဆိုတဲ့ Folder
using System; namespace TourOfCsharp; class Program { static void Main() { // This line prints "Hello, World" Console.WriteLine("Hello, World"); } } အထက်ပါ "Hello, World" ပရိုဂရမ်သည် System namespace ကို ရည်ညွှန်းသည့် using directive တစ်ခုဖြင့် စတင်ထားပါသည်။ နိမ့်မြင့်စဉ်အလိုက် ဖွဲ့စည်းပုံ (Namespaces) ဥပမာအားဖြင့်- System namespace ထဲတွင် ပရိုဂရမ်ထဲမှာ အသုံးပြုထားသေ
Compiler နဲ့ Interpreter ဘာကွာလဲ Compiler နဲ့ Interpreter နှစ်ခုလုံးဟာ ကိုယ်ရေးထားတဲ့ High-level code (C#, Python, Java) တွေကို ကွန်ပျူတာနားလည်တဲ့ Machine code အဖြစ် ပြောင်းပေးတဲ့ "ဘာသာပြန်ဆရာ" တွေ ဖြစ်ကြပါတယ်။ ဒါပေမဲ့ သူတို့ ဘာသာပြန်ပုံချင်းကတော့ အခြေခံအားဖြင့် ကွာခြားပါတယ်။ ၁။ အလုပ်လုပ်ပုံ (Process) • Interpreter: ကုဒ်ကို တစ်ကြောင်းချင်းစီ ဖတ်ပါတယ်။ ပထမတစ်ကြောင်းကို ဖတ်တယ်၊ ဘာသာပြန်တယ်၊ ချက်ချင်
Vibe coding is a good starting point, but it is not where serious AI-assisted development ends. The next step is agentic engineering: using AI coding agents inside a controlled engineering workflow, with context, tests, review and clear boundaries. Vibe coding often focuses on the generated output: Ask for feature -> get code -> run it -> ask for fixes Agentic engineering focuses on the system ar
80% of the time, coding is a performance. The other 20% is doing real coding. Performance means Scrum ceremonies, meetings, and JIRA: A meeting to present tickets for the next two weeks A meeting to answer questions from the previous meeting A meeting to watch someone enter a number in a text box. Read: poker planning and story points Meetings to watch someone move a ticket between JIRA lanes. Rea
Comments
A some time ago I shipped a desktop app to generate LLM fine-tuning datasets. It worked: my Qwen2.5-Coder-7B fine-tune jumped from 55.5% → 72.3% on HumanEval. Whole pipeline ran on OpenRouter — pick a model, click Generate, get JSONL. v1.0.3-beta ships multi-provider LLM support — Ollama, LM Studio, llama.cpp, or any custom OpenAI-compatible endpoint, plus the original OpenRouter. Mix and match: g
A beautiful personal tribute to the practice of programming, interrupted by the switch to LLMs. Comments