Size: 15155
Comment:
|
Size: 16267
Comment:
|
Deletions are marked like this. | Additions are marked like this. |
Line 19: | Line 19: |
||<style="border:0;padding-left:30px;padding-bottom:5px">[[https://www.youtube.com/watch?v=zjGQRG2PNu0|{{attachment:seminarium-archiwum/youtube.png}}]] '''Integracja jednostek wielowyrazowych w analizie składniowej przy użyciu algorytmu A* oraz metod dyskryminatywnych'''  {{attachment:seminarium-archiwum/icon-pl.gif|Wystąpienie w języku polskim.}} {{attachment:seminarium-archiwum/icon-en.gif|Slajdy w języku angielskim.}}|| ||<style="border:0;padding-left:30px;padding-bottom:15px">Podczas referatu omówię dwa podejścia do automatycznej identyfikacji wielowyrazowych jednostek czasownikowych w połączeniu z analizą składniową. Pierwsze podejście, przetestowane w kontekście formalizmu TAG, polega na promowaniu jednostek w ramach algorytmu A*. Podejście to zakłada, że potencjalne wystąpienia jednostek są wstępnie zidentyfikowane przed analizą składniową, np. w wyniku super-tagowania. Eksperymenty przeprowadzone na Składnicy wykazały, że strategia ta pozwala istotnie ograniczyć przestrzeń wyszukiwania parsera, przy niewielkim uszczerbku dla jakości analizy. W drugim podejściu identyfikacja jednostek przeprowadzana jest w fazie końcowej analizy składniowej. Identyfikacja sprowadza się wtedy do problemu etykietowania, w którym jedna z dwóch etykiet (MWE/not-MWE) musi zostać określona dla każdego wierzchołka drzewa zależnościowego. System oparty na tym podejściu oraz na regresji logistycznej uzyskał pierwsze miejsce w zamkniętej ścieżce konkursu PARSEME shared task 2018. Część referatu poświęcona zostanie również narzędziu Concraft-pl 2.0, nowej wersji morfoskładniowego tagera dla polskiego bazującego na warunkowych polach losowych. Concraft-pl 2.0 przeprowadza podział na słowa (tokenizację) w ramach ujednoznaczniania morfoskładniowego, co pozwala używać go bezpośrednio na grafach wyjściowych Morfeusza. Inne istniejące tagery dla języka polskiego albo ignorują ten problem, albo opierają się na heurystykach stosowanych przed fazą ujednoznaczniania.|| |
||<style="border:0;padding-left:30px;padding-bottom:5px">[[https://www.youtube.com/watch?v=zjGQRG2PNu0|{{attachment:seminarium-archiwum/youtube.png}}]] '''[[attachment:seminarium-archiwum/2018-10-29.pdf|Od tagowania morfoskładniowego do identyfikacji czasownikowych jednostek wielowyrazowych: podejście dyskryminatywne]]'''  {{attachment:seminarium-archiwum/icon-pl.gif|Wystąpienie w języku polskim.}} {{attachment:seminarium-archiwum/icon-en.gif|Slajdy w języku angielskim.}}|| ||<style="border:0;padding-left:30px;padding-bottom:15px">Pierwsza część referatu poświęcona została narzędziu Concraft-pl 2.0, nowej wersji morfoskładniowego tagera dla języka polskiego bazującego na warunkowych polach losowych. Concraft-pl 2.0 przeprowadza podział na słowa (tokenizację) w ramach ujednoznaczniania morfoskładniowego, co pozwala używać go bezpośrednio na grafach wyjściowych analizatora Morfeusz. Inne istniejące tagery dla języka polskiego albo ignorują ten problem, albo opierają się na heurystykach stosowanych przed fazą ujednoznaczniania. W drugiej części referatu przedstawiona została metoda automatycznej identyfikacji czasownikowych jednostek wielowyrazowych opierająca się na wynikach analizy zależnościowej. W tym podejściu identyfikacja sprowadza się do problemu etykietowania, w którym jedna z dwóch etykiet (MWE/not-MWE) musi zostać określona dla każdego wierzchołka drzewa zależnościowego. Do rozwiązania tego problemu wykorzystany został model warunkowych pól losowych dostosowany do drzewiastej struktury danych wejściowych. System oparty na tym podejściu uzyskał pierwsze miejsce w zamkniętej ścieżce konkursu PARSEME shared task 2018.|| |
Line 24: | Line 24: |
||<style="border:0;padding-left:30px;padding-bottom:5px">'''Zawsze od rana do środy — semantyka i normalizacja quasi-okresowych określeń czasu w języku polskim'''  {{attachment:seminarium-archiwum/icon-pl.gif|Wystąpienie w języku polskim.}}|| | ||<style="border:0;padding-left:30px;padding-bottom:5px">[[https://www.youtube.com/watch?v=sz7dGmf8p3k|{{attachment:seminarium-archiwum/youtube.png}}]] '''Zawsze od rana do środy — semantyka i normalizacja quasi-okresowych określeń czasu w języku polskim'''  {{attachment:seminarium-archiwum/icon-pl.gif|Wystąpienie w języku polskim.}}|| |
Line 29: | Line 29: |
||<style="border:0;padding-left:30px;padding-bottom:5px">'''Universal Dependencies and the Slavic Languages'''  {{attachment:seminarium-archiwum/icon-en.gif|Wystąpienie w języku angielskim.}}|| ||<style="border:0;padding-left:30px;padding-bottom:15px">I will present Universal Dependencies, a worldwide community effort aimed at providing multilingual corpora, annotated at the morphological and syntactic levels following unified annotation guidelines. I will discuss the concept of core arguments, one of the cornerstones of the UD framework. In the second part of the talk I will focus on some interesting problems and challenges of applying Universal Dependencies to the Slavic languages. I will discuss examples from 12 Slavic languages that are currently represented in UD and show that cross-linguistic consistency can still be improved.|| |
||<style="border:0;padding-left:30px;padding-bottom:5px">[[https://www.youtube.com/watch?v=xUmZ8Mxcmg0|{{attachment:seminarium-archiwum/youtube.png}}]] '''[[attachment:seminarium-archiwum/2018-11-19.pdf|Universal Dependencies i języki słowiańskie]]'''  {{attachment:seminarium-archiwum/icon-en.gif|Wystąpienie w języku angielskim.}}|| ||<style="border:0;padding-left:30px;padding-bottom:15px">Przedstawię Universal Dependencies, ogólnoświatową inicjatywę mającą na celu udostępnienie wielojęzycznych korpusów zaanotowanych na poziomie morfologicznym i składniowym zgodnie z uniwersalnymi wytycznymi. Omówię koncepcję kluczowych argumentów (ang. core arguments), która jest jednym z fundamentów UD. W drugiej części wykładu skupię się na kilku interesujących problemach i wyzwaniach związanych z zastosowaniem Uniwersalnych Zależności w językach słowiańskich. Omówię przykłady z 12 języków słowiańskich reprezentowanych obecnie w UD, które pokazują, że nadal można poprawić spójność międzyjęzykową.|| |
Line 34: | Line 34: |
||<style="border:0;padding-left:30px;padding-bottom:5px">'''Analiza i anotacja koreferencji na potrzeby lingwistyki kontrastywnej i translatoryki'''  {{attachment:seminarium-archiwum/icon-en.gif|Wystąpienie w języku angielskim.}}|| | ||<style="border:0;padding-left:30px;padding-bottom:5px">[[https://www.youtube.com/watch?v=UQ_6dDNEw8E|{{attachment:seminarium-archiwum/youtube.png}}]] '''[[attachment:seminarium-archiwum/2018-12-03.pdf|Analiza i anotacja koreferencji na potrzeby lingwistyki kontrastywnej i translatoryki]]'''  {{attachment:seminarium-archiwum/icon-en.gif|Wystąpienie w języku angielskim.}}|| |
Line 39: | Line 39: |
||<style="border:0;padding-left:30px;padding-bottom:5px">'''Tytuł wystąpienia będzie dostępny wkrótce'''  {{attachment:seminarium-archiwum/icon-pl.gif|Wystąpienie w języku polskim.}}|| | ||<style="border:0;padding-left:30px;padding-bottom:5px">'''Enhanced Universal Dependencies'''  {{attachment:seminarium-archiwum/icon-pl.gif|Wystąpienie w języku polskim.}}|| |
Line 47: | Line 47: |
||<style="border:0;padding-top:5px;padding-bottom:5px">'''21 stycznia 2019'''|| ||<style="border:0;padding-left:30px;padding-bottom:0px">'''Marek Łaziński''' (Uniwersytet Warszawski), '''Michał Woźniak''' (Uniwersytet Jagielloński) || ||<style="border:0;padding-left:30px;padding-bottom:5px">'''Tytuł wystąpienia będzie dostępny wkrótce'''  {{attachment:seminarium-archiwum/icon-pl.gif|Wystąpienie w języku polskim.}}|| ||<style="border:0;padding-left:30px;padding-bottom:15px">Streszczenie wystąpienia zostanie udostępnione w późniejszym terminie.|| |
|
Line 50: | Line 55: |
||<style="border:0;padding-left:30px;padding-bottom:15px">Streszczenie wystąpienia zostanie udostępnione w późniejszym terminie.|| ||<style="border:0;padding-top:5px;padding-bottom:5px">'''25 lutego 2019'''|| ||<style="border:0;padding-left:30px;padding-bottom:0px">'''Jakub Dutkiewicz''' (Politechnika Poznańska)|| ||<style="border:0;padding-left:30px;padding-bottom:5px">'''Empirical research on medical information retrieval'''  {{attachment:seminarium-archiwum/icon-pl.gif|Wystąpienie w języku polskim.}}|| |
|
Line 62: | Line 72: |
– 21 stycznia: Marek Łaziński, Michał Woźniak – (ferie: 28 stycznia – 10 lutego) – 25 lutego: |
(ferie: 28 stycznia – 10 lutego) |
Line 68: | Line 76: |
– (21 kwietnia: Poniedziałek Wielkanocny) | (21 kwietnia: Poniedziałek Wielkanocny) |
Line 71: | Line 79: |
– (17–19 maja: LTC w Poznaniu, więc ew. 20 maja można kogoś namówić na przyjazd przy okazji) | (17–19 maja: LTC w Poznaniu, więc ew. 20 maja można kogoś namówić na przyjazd przy okazji) |
Line 73: | Line 81: |
– (2–7 czerwca: NAACL w Minneapolis) | (2–7 czerwca: NAACL w Minneapolis) |
Seminarium „Przetwarzanie języka naturalnego” 2018–19
Seminarium Zespołu Inżynierii Lingwistycznej w Instytucie Podstaw Informatyki Polskiej Akademii Nauk odbywa się nieregularnie w poniedziałki zwykle o godz. 10:15 w siedzibie IPI PAN (ul. Jana Kazimierza 5, Warszawa) i ma charakter otwarty. Poszczególne referaty ogłaszane są na Polskiej Liście Językoznawczej oraz na stronie Lingwistyka komputerowa na Facebooku. Wszystkie nagrania dostępne są na kanale YouTube. |
1 października 2018 |
Janusz S. Bień (Katedra Lingwistyki Formalnej UW, prof. emeryt) |
Omówione zostaną indeksy do zasobów leksykograficznych dostępnych w Internecie w formacie DjVu. Indeksy takie mogą być przeglądane, modyfikowane i tworzone za pomocą swobodnego (dostępnego bezpłatnie na otwartej licencji) programu djview4poliqarp — zostanie przedstawiona geneza i historia tego programu. W programie tym obsługa indeksów została pierwotnie wprowadzona na potrzeby indeksu haseł do XIX-wiecznego słownika Lindego, ale może być wykorzystywana również do innych zasobów, jak to zostanie pokazane na przykładach. Zostaną w szczególności zademonstrowane — po raz pierwszy publicznie — ulepszenia wprowadzone do programu w ostatnich miesiącach. |
15 października 2018 |
Wojciech Jaworski, Szymon Rutkowski (Uniwersytet Warszawski) |
Referat poświęcony będzie wielowarstwowemu modelowi fleksji języka polskiego. Model opracowany został na podstawie haseł pochodzących ze Słownika Gramatycznego Języka Polskiego; nie korzysta z koncepcji paradygmatu odmiany. Model składa się z trzech warstw ręcznie opracowanych reguł: „warstwy ortograficzno-fonetycznej” konwertującej segment do reprezentacji odzwierciedlającej prawidłowości morfologiczne języka, „warstwy analitycznej” generującej lemat oraz określającej afiksy oraz „warstwy interpretacji” nadającej interpretację morfosyntaktyczną na podstawie wykrytych afiksów. Model dostarcza wiedzę o języku analizatorowi morfologicznemu zaopatrzonemu w funkcję odgadywania lematów i interpretacji morfosyntaktycznych dla form nie należących do słownika (ang. guesser). Drugim zastosowaniem jest generowanie form słów na podstawie lematu i interpretacji morfosyntaktycznej. Podczas referatu poruszone zostanie również zagadnienie dezambiguacji wyników dostarczanych przez analizator morfologiczny. Wersja demonstracyjna programu dostępna jest w Internecie. |
29 października 2018 |
Jakub Waszczuk (Uniwersytet Heinricha Heinego w Düsseldorfie) |
|
Pierwsza część referatu poświęcona została narzędziu Concraft-pl 2.0, nowej wersji morfoskładniowego tagera dla języka polskiego bazującego na warunkowych polach losowych. Concraft-pl 2.0 przeprowadza podział na słowa (tokenizację) w ramach ujednoznaczniania morfoskładniowego, co pozwala używać go bezpośrednio na grafach wyjściowych analizatora Morfeusz. Inne istniejące tagery dla języka polskiego albo ignorują ten problem, albo opierają się na heurystykach stosowanych przed fazą ujednoznaczniania. W drugiej części referatu przedstawiona została metoda automatycznej identyfikacji czasownikowych jednostek wielowyrazowych opierająca się na wynikach analizy zależnościowej. W tym podejściu identyfikacja sprowadza się do problemu etykietowania, w którym jedna z dwóch etykiet (MWE/not-MWE) musi zostać określona dla każdego wierzchołka drzewa zależnościowego. Do rozwiązania tego problemu wykorzystany został model warunkowych pól losowych dostosowany do drzewiastej struktury danych wejściowych. System oparty na tym podejściu uzyskał pierwsze miejsce w zamkniętej ścieżce konkursu PARSEME shared task 2018. |
19 listopada 2018 |
Daniel Zeman (Instytut Lingwistyki Formalnej i Stosowanej, Uniwersytet Karola w Pradze) |
Przedstawię Universal Dependencies, ogólnoświatową inicjatywę mającą na celu udostępnienie wielojęzycznych korpusów zaanotowanych na poziomie morfologicznym i składniowym zgodnie z uniwersalnymi wytycznymi. Omówię koncepcję kluczowych argumentów (ang. core arguments), która jest jednym z fundamentów UD. W drugiej części wykładu skupię się na kilku interesujących problemach i wyzwaniach związanych z zastosowaniem Uniwersalnych Zależności w językach słowiańskich. Omówię przykłady z 12 języków słowiańskich reprezentowanych obecnie w UD, które pokazują, że nadal można poprawić spójność międzyjęzykową. |
3 grudnia 2018 |
Ekaterina Lapshinova-Koltunski (Uniwersytet Kraju Saary) |
|
Podczas wykładu opowiem o trwających pracach nad analizą koreferencji w kontekście wielojęzycznym. Przedstawię dwa podejścia do analizy zjawisk koreferencyjnych: (1) teoretyczne, gdy na podstawie wiedzy lingwistycznej definiujemy kategorie językowe i używamy ich do stworzenia anotowanego korpusu, który można wykorzystać albo do dalszej analizy lingwistycznej, albo jako dane treningowe dla zastosowań NLP, (2) oparte na danych: w tym przypadku zaczynamy od zestawu płytkich cech naszym zdaniem związanych z dyskursem, wyodrębniamy struktury z dużej ilości danych i analizujemy je z językowego punktu widzenia próbując opisać i wyjaśnić obserwowane zjawiska za pomocą istniejących teorii i gramatyk. |
7 stycznia 2019 |
Adam Przepiórkowski (Instytut Podstaw Informatyki PAN / Uniwersytet Warszawski), Agnieszka Patejuk (Instytut Podstaw Informatyki PAN / Uniwersytet Oksfordzki) |
Enhanced Universal Dependencies |
Streszczenie wystąpienia zostanie udostępnione w późniejszym terminie. |
14 stycznia 2019 |
Agata Savary (Université François Rabelais Tours) |
Tytuł wystąpienia będzie dostępny wkrótce |
Streszczenie wystąpienia zostanie udostępnione w późniejszym terminie. |
21 stycznia 2019 |
Marek Łaziński (Uniwersytet Warszawski), Michał Woźniak (Uniwersytet Jagielloński) |
Tytuł wystąpienia będzie dostępny wkrótce |
Streszczenie wystąpienia zostanie udostępnione w późniejszym terminie. |
11 lutego 2019 |
Anna Wróblewska (Politechnika Warszawska) |
Tytuł wystąpienia będzie dostępny wkrótce |
Streszczenie wystąpienia zostanie udostępnione w późniejszym terminie. |
25 lutego 2019 |
Jakub Dutkiewicz (Politechnika Poznańska) |
Empirical research on medical information retrieval |
Streszczenie wystąpienia zostanie udostępnione w późniejszym terminie. |
Zapraszamy także do zapoznania się z archiwum seminariów z lat 2000–15 oraz listą wystąpień z lat 2015–18. |