KLASYFIKACJA

Oto pełna klasyfikacja pierwszej i drugiej rundy zawodów TestingCup 2015.

W zawodach wzięło udział 201 testerów, w tym 36 zawodników indywidualnych i 55 drużyn.

Dziękujemy wszystkim zawodnikom za pełną emocji i wyrównaną rywalizację oraz gratulujemy zwycięzcom!

Runda 1 – Eliminacje

Zawodnicy indywidualni

Miejsce Imię i Nazwisko Punkty
1 Karol Gierszewski 21
2 Dorota Wróbel-Mirowska 16
2 Witold Podgórski 16
4 Patryk Hemperek 15
5 Maciej Dobrasiak 13
5 Emilia Wojtkowska-Degentysz 13
7 Paulina Walawko 12
7 Konrad Chechłacz 12
7 Daniel Tendaj 12
10 Marcin Ślipek 11
11 Grzegorz Dawid 10
11 Mateusz Ciołek 10
13 Jacek Czupik 9
13 Agnieszka Jeruzalska 9
15 Karolina Kowalska 8
15 Kamil Wrzodak 8
15 Angelika Rudzik 8
18 Adam Wałęska
19 Radosław Hrebeniak
20 Joanna Baranowska
21 Małgorzata Jakubiec
22 Krzysztof Kucharski
23 Piotr Mieczkowski
24 Michał Kański
25 Tomasz Pieronek
26 Joanna Ziemianowicz
27 Vira Kriukova
28 Klaudia Musiał
29 Małgorzata Bugajska
30 Michał Kawczyński
31 Łukasz Pardoła
32 Katarzyna Suszczyńska
33 Kamil Lendo
34 Tomasz Jański
35 Michał Lubawy
36 Anna Burcon

Drużyny

Miejsce Nazwa drużyny Punkty
1 Nokia Quick Test  32
2 I Don’t Wanna Miss A Bug  30
3 GFT QA Team  28
4 King Artur’s Team  26
4 FP Buggy Hunters  26
6 Canon-OT Komando [delta] Foki  24
6 PGS Team  24
6 Yoghurt  24
9 Fest Pochytani  23
10 deBuggers  22
10 PERFORMers  22
10 Nokia; DROP DATABASE %;COMMIT;  22
10 MMK  22
14 BrightOne Team  20
14 Nokia KrK  20
14 Nokia OSSome Team  20
17 CyberBugHunters  19
17 Hot Boilers  19
17 QV  19
20 Atos Rangers  18
20 Ninja Team  18
22 aaaSprzedamOpla  17
22 BUGSTREETBOYS  17
22 FPadliśmy potestować  17
22 Kliknij tutaj  17
26 PGS Crew  16
26 Cognifinders  16
26 Cognifide Moles  16
26 Egnytesters  16
26 DREDAR  16
26 I love Wikia  16
32 Fachowy Poziom
32 VOLVO IT #2
34 h[y]brids
34 Altum Testers
34 Defekt Trójkata
34 OBJECTIVITY A
38 Fast & Perfect
38 U nas dziala
40 Canon-OT Brainstorm
40 Xplus Team
42 ComAry Comarch
42 Pearson IOKI 3
42 Dolby ATG
42 BrightOne Masters
46 Motorola UNS
46 Future Penguins
48 Nokia 1
49 Atena
50 Motorola RIC
50 Soft System
50 Works as designed
53 NextGen BuggING
54 Allegro Warthogs
55 Sii Wrocław

Runda 2 – Finał

Zawodnicy indywidualni

Miejsce Imię i Nazwisko Punkty
1 Witold Podgórski 38
2 Konrad Chechłacz 32
3 Karol Gierszewski 31
4 Patryk Hemperek 28
5 Marcin Ślipek 21
6 Emilia Wojtkowska-Degentysz 20
7 Paulina Walawko 16
7 Dorota Wróbel – Mirowska 16
9 Daniel Tendaj 15
10 Maciej Dobrasiak 14

Drużyny

Miejsce Nazwa drużyny Punkty
1 Fest Pochytani  51 *
2 deBuggers  51
3 Canon-OT Komando [delta] Foki  50
4 GFT QA Team  48
5 FP Buggy Hunters  47
6 PERFORMers  44
7 MMK  42
7 Nokia Quick Test  42
9 PGS Team  32
10 King Artur’s Team  29
11 Yoghurt  25
12 Nokia; DROP DATABASE %;COMMIT;  20
13 I Don’t Wanna Miss a Bug  8

* Zwycięska drużyna zaraportowała więcej krytycznych defektów, co przesądziło o wygranej

6 comments

  1. Co oznaczaja puste miejsca? Za malo punktow by uwzglednic w klasyfikacji?

    1. Zdecydowaliśmy na stronie podać punkty tylko tych najlepszych, pozostałym podamy wynik jeśli będą chcieli, ale nie na forum lecz prywatnie mailowo.

      1. Na wstępie chciałem pogratulować organizacji i tego że zmiana sposobu rozgrywania zawodów nie wpłynęła negatywnie i wydaje się krokiem w dobrym kierunku. Wprowadzenie aplikacji z mniejszymi zadaniami jest ciekawym i sprytnym rozwiązaniem jeśli chodzi o szybsze sprawdzanie raportów i dostarczenie wyników. Chciałbym jednak przy okazji zwrócić uwagę na kilka rzeczy, które chyba nie do końca działają a nie wiem czy jest tak świadomie.

        Moim zdanie brak transparentności jest dużą wadą Mistrzostw. Spodziewałem się, że wyniki rundy eliminacyjnej zostaną ogłoszone w pełni (pełna lista drużyn wraz z punktacją) przed rundą finałową. Byłem też przekonany, że ujawnicie bugi jakie są w poszczególnych zadania tym bardziej że ich opis miał być jednozdaniowy. Szkoda, że choć każdy wkłada wysiłek podczas zawodów to później nie ma pewności w jaki sposób jego raport został oceniony tak by wyciągnąć wnioski na przyszłość tym bardziej że czasami ten jedyny bug jaki był przez Was zidentyfikowany wcale nie był tak jednoznaczny dla uczestników.

        P.S.
        W regulaminie jest też mowa o możliwości odwołania od decyzji Komisji Sędziowska, ale bardzo trudno to zrobić przed rundą finałową jeśli nie ma się o co oprzeć. Dodatkowo jeśli zrobiłoby się to później to i tak jest już za późno, bo finał już był. Zmiana na to, że są eliminacje i runda finałowa jest ciekawym rozwiązaniem, ale potencjał wprowadzenia aplikacji z zadaniami chyba nie został w pełni wykorzystany.

        1. Większość materiałów zostanie upublicznionych:
          – aplikacja
          – specyfikacja
          – defekty w aplikacji i kategorie
          – najlepsze raporty
          – itd.

          Potrzebujemy trochę czasu, aby to opracować, dopracować i opublikować.

          Rzeczywiście mogliśmy upublicznić i defekty i klasyfikację po Rundzie 1. Nie pomyśleliśmy o tym i nie byliśmy do tego przygotowani technicznie. Jest to na pewno nauka na przyszłość.

          Co do odwołania, to podzielenie na Rundę 1 i 2 nie ma tu większego znaczenia. Po pierwsze nie udałoby się przeanalizować skargi przed finałem, po drugie gdyby była jedna runda to i tak odwołania byłyby rozstrzygane PO. Działa to tak w większości znanych nam zawodach.

          Dziękujemy bardzo za te uwagi!

  2. Będziecie podawać cząstkowe wyniki za poszczególne elementy finału tj. ile zwycięskie drużyny zdobyły punktów za bugi, raport oraz sugestie? Fajnie byłoby poznać te informacje, żeby przygotować się do kolejnej edycji.

    Wiadomo ile było znanych defektów w aplikacji testowanej w finale?

    1. Cząstkowe wyniki nie będą podawane. Udostępnimy najlepsze raporty i można będzie to połączyć z regułami oceny defektów, sugestii i raportu.

      7 defektów zostało “posianych” na finał. Nie były to jednak w większości defekty aplikacji, a różnice między zachowaniem, a specyfikacją.
      Pozdrawiamy!

Comments are closed.