Dzisiaj mam dla Ciebie trzy ważne rzeczy. Pierwsza to moje wnioski z tego co zmienia AI dla DevOps, druga to kolejne części serii “AI w minutę”, a ostatnia to informacja o nadchodzącym webinarze.
Co zmienia AI dla DevOps
Niby nikt kto pracuje w obszarze DevOps nie ma się niczego obawiać, ale jest kilka rzeczy, o których warto wiedzieć i być odpowiednio przygotowanym.
Przedstawiam Ci zatem szanse i zagrożenia jakie niesie ze sobą AI.
🟢 Szanse
Szybciej tworzone rozwiązania dla platform.
Z ChatGPT i rozwiązaniami typu GitHub Copilot (szczególnie jak stał się darmowy) pisanie Dockerfile, modułów do Terraform/OpenTofu czy Helm Chartów staje się szybsze i przyjemniejsze.
To przyczyni się do większej produktywności lub odzyskania czasu na inne, ważniejsze rzeczy.Łatwiejszy troubleshooting i nauka.
“Co oni tam powyprawiali?” - pomyślał niejeden DevOps. Diagnozowanie tajemniczych problemów staje się szybsze dzięki AI. A może dzięki temu coraz więcej osób ogarnie observability i posiądzie wiedzę o tracingu? W tym też może pomóc AI, bo może nam odpowiedzieć szybko na wiele nurtujących pytań.DevOps będzie niezbędny do obsługi modeli AI.
To najważniejsza według mnie szansa. Modele LLM czy inne, będą uruchamiane jak usługi w chmurze lub lokalnie. Tak naprawdę to będą przypominać tradycyjne aplikacje korzystające z GPU.
Potrzebna będzie zatem wiedza o sieci, infrastrukturze, monitoringu, observability, CI/CD dla deploymentu modeli i wszystko to czym DevOps zajmował się do tej pory. Dojdzie po prostu kolejny obszar do ogarniania. Zatem czas zakasać rękawy!
🟠 Zagrożenia
Więcej ludzi bez wiedzy zacznie tworzyć “potworki”.
Skoro można zlecić utworzenie konfiguracji dla Kubernetes, manifestu dla Terraform/OpenTofu, to po co zawracać głowę ludziom od DevOps?
I tak będą powstawać różne rozwiązania, które mogą stworzyć wiele zagrożeń. Bez odpowiedniej wiedzy nie da się zweryfikować AI, które halucynuje i bez kontekstu podaje generyczne, często nieaktualne rozwiązania. A utworzenie konfiguracji to zaledwie początek drogi, gdyż późnieju trzeba to utrzymywać i diagnozować.Większy próg wejścia do DevOps dla juniorów.
To już jest zauważalne. Z reguły osoby bez dużego doświadczenia wykonują prostsze prace zlecane przez ich bardziej doświadczonych kolegów i koleżanki z zespołu.
No a teraz zamiast zlecać zadania juniorom zostaną one zlecone AI. Model szybciej wygeneruje coś co napisałby junior(ka), a senior(ka) rzutem oka sprawdzi i ewentualnie doszlifuje to do potrzeb.
Coraz więcej nacisku będzie kładzione na zrozumienie koncepcji niż jej ostatecznie zaimplementowanie.Przyszłe agenty AI będą same zarządzać platformami.
Żaden Puppet, Ansible czy Kubernetes nie zagraża pracy tak jak możliwe rozwiązania AI w postaci autonomicznych agentów. To jeszcze melodia przyszłości, ale całkiem możliwa.
Wolałbym, aby takie agenty wykonywały brudną pracę, a dla DevOps zostało opracowanie architektury czy optymalizacja. Czas pokaże w którą stronę to pójdzie.
Nowe części serii “AI w minutę”
Są już nowe wideo mojej treściwej serii filmów o AI. Od teraz będę załączał listę tych dostępnych publicznie oraz tych, które jeszcze publiczne nie są, ale ty możesz je już obejrzeć korzystając z linka.
1: Jaka jest różnica między AI a LLM?
2: Czym jest LLM?
3: Jak powstaje LLM?
4: Jaka działa LLM?
5: Czym są parametry w LLM?
6: Ile kosztuje korzystanie z LLM? (niepubliczne - obecnie dostępne tylko dla subskrybentów)
7: Czym jest self-attention? (już w poniedziałek 27 stycznia)
Obalamy największe bzdury i mity o AI - webinar
Już teraz zarezerwuj sobie czas w czwartek 30 stycznia o 19:00 na pierwszy webinar, gdzie opowiem o legendach i powielanych bzdurach, mitach i półprawdach o AI.
Dowiesz się tam między innymi:
- Czy AI to bańka i kiedy pęknie?
- Kogo zastąpią agenty AI?
- Czy jest sens pisać soft skoro jest AI?
- Czy trzeba umieć matmę, aby pisać aplikacje z LLM?
🗓️Dodaj do kalendarza Google | 🗓️Dodaj do kalendarza Outlook
Comments