Terminarz Turnieju:

I etap: 1 XI - 30 XI 2024 r.
Finał: 1 - 2 III 2025 r.
UJ logo

Nokia logo

Granna logo

Oficyna Pazdro logo



Patronaty:
PTM logo

JTM V, Etap IIIA

Zadanie 1

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Co oznaczania pojęcie uczenie nadzorowane:
  1. uczenie maszynowe, które zakłada obecność etykiet, których model musi się nauczyć
  2. uczenie maszynowe, które zakłada brak etykiet, a model ma sam stworzyć reguły podziału na grupy
  3. uczenie maszynowe, które wykorzystuje architekturę sieci neuronowych.

Zadanie 2

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Czy pojedynczy neuron (perceptron) potrafi odseparować klasy, które nie są liniowo separowalne:
  1. tak
  2. nie
  3. to zależy od struktury danych uczących

Zadanie 3

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Metoda najszybszego spadku gradientu służy do:
  1. minimalizacji funkcji
  2. ewaluacji modelu (oceny modelu)
  3. przygotowania zbioru uczącego

Zadanie 4

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Zbiór testowy to:
  1. fragment zbioru danych na którym uczymy model
  2. fragment zbioru danych na którym oceniamy nauczony model wycięty ze zbioru treningowego
  3. fragment zbioru danych na którym oceniamy nauczony model rozłączny ze zbiorem treningowym

Zadanie 5

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Zadanie przewidywania ceny mieszkań na podstawie danych ich opisujących jest zadaniem:
  1. Nauczania nadzorowanego
  2. Nauczania nie nadzorowanego
  3. Nie może być rozwiązana za pomocą nauczania maszynowego

Zadanie 6

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Jako wniosek z Twierdzenia o uniwersalnej aproksymacji wiemy, ż każdą funkcję ciągłom możemy przybliżyć za pomocą sieci neuronowej:
  1. Z jedną warstwą ukrytą
  2. Ze skończoną ilością warstw ukrytych
  3. Za pomocą pojedynczego neuronu

Zadanie 7

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Funkcja aktywacji powoduje:
  1. Zwiększenie wydajności obliczeniowej
  2. Powoduje, że granica decyzyjna otrzymana przez sieć nie jest liniowa
  3. Przyśpiesza algorytm najszybszego spadku gradientu

Zadanie 8

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Aby efektywnie uczyć sieci neuronowe potrzebujemy:
  1. Dużej ilości pamięci ram
  2. Wydajnego procesora o wielu rdzeniach
  3. Kart graficznych

Zadanie 9

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Do przetwarzania zdjęć wykorzystuje się sieci typu
  1. Fully conected
  2. Konwolucyjne
  3. Rekurencyjne

Zadanie 10

Poniżej podana jest przykładowa treść zadania. Treść zadania obowiązująca danego zawodnika dostępna jest po zalogowaniu.

Operacja konwolucji przetwarza
  1. Cały obraz ze wszystkimi kanałami
  2. Cały obraz ale tylko jeden kanał
  3. Fragment obrazu ze wszystkimi kanałami