Seminarium: Systemy Rozproszone
19 maja 2016, godzina 12:00, sala 4070
Michał Adamczyk, Maciej Matraszek, Michał Woś

Scheduling w Kubernetesie a historia uruchomień


Rosnące klastry obliczeniowe i potrzeba uproszczenia sposobów uruchamiania zadań na nich doprowadziły do powstania Kubernetesa - systemu zarządzania aplikacjami w klastrach. Jednym z jego zadań jest przypisywanie programu do maszyny, na której ma zostać uruchomiony. Obecne rozwiązania wymagają zarezerwowania dla każdej aplikacji z góry określonych zasobów. Jednocześnie, system ten monitoruje i zbiera informacje o wszystkich uruchomieniach. Czy można wykorzystać te dane do lepszego schedulowania - bazującego na śladach z działania aplikacji w przeszłości?

W swojej prezentacji przypomnę, po krótce, czym jest Kubernetes, opowiem o jego aktualnym schedulerze, narzędziach używanych do monitorowania klastra oraz zaprezentuję ideę programu, który podpowiadałby schedulerowi - cel mojej pracy magisterskiej. Na koniec przedstawię środowisko używane do jego testowania.

Zapraszam!
Michał Adamczyk

SocSenSys: Quantified Crowd


W ramach projektu SocSenSys powstały specjalistyczne urządzenia przeznaczone do badania zachowań sporych grup ludzi. Nasze inteligentne identyfikatory -- badże potrafią wiele: wykrywać kto z kim się spotyka, kto mówi, określać gdzie znajduje się nosiciel oraz zbierać wszelakie dane o środowisku i aktywności. Jednak stworzenie sprzętu nie jest celem samym w sobie -- chcemy za jego pomocą mierzyć tłum, i taka jest moja rola w tym projekcie.
Podczas prezentacji zobaczymy demonstrację działania socjometrycznych identyfikatorów, opowiem o trudach pracy ze sprzętem, o tym jakie dane zbieramy oraz o prowadzonych aktualnie eksperymentach.

Zapraszam!
Maciej Matraszek

Big Data + Machine Learning = Data Mining, temat na topie


Obecnie wszędzie obserwujemy trend zbierania i przetwarzania dużej ilości danych. Wraz z rosnącym zapotrzebowaniem na pozyskiwanie informacji z potężnych zbiorów rośnie ilość technologii to umożliwiających. Wybranie odpowiedniej to trudne zadanie. Benchmarki robione przez twórców mają tendencję bycia nieobiektywnymi. Nie ma jednego źródła coraz to świeżych testów z porównaniami technologii. Temat mojej pracy jest jeszcze nieznany. Na zajęciach wspomne o dwóch pomysłach mając nadzieję na żywą dyskusję ułatwiającą mi podjęcie decyzji.

  1. Rzetelne porównanie narzędzi do przetwarzania dużych danych. Stworzenie środowiska umożliwiającego uzyskanie nowych wyników w razie aktualizacji danego narzędzia.
  2. Zrówoleglenie wybranego algorytmu Machine Learning z uwzględnieniem heterogonicznych obliczeń (CPU / GPU)

Zapraszam!
Michał Woś