We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Leveraging Linked Data using Python and SPARQL

Formale Metadaten

Titel
Leveraging Linked Data using Python and SPARQL
Serientitel
Anzahl der Teile
115
Autor
Mitwirkende
Lizenz
CC-Namensnennung - keine kommerzielle Nutzung - Weitergabe unter gleichen Bedingungen 4.0 International:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen und nicht-kommerziellen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen und das Werk bzw. diesen Inhalt auch in veränderter Form nur unter den Bedingungen dieser Lizenz weitergeben.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
Wikipedia is the digital encyclopedia that we use daily to find out facts and information. What could be better than being able to extract the extreme wealth of crowd-sourced knowledge from Wikipedia without using traditional web scrapers? Various community-driven projects extract knowledge from Wikipedia and stores them structurally, retrievable using SPARQL. It can be used to mine data for a range of Data Science projects. In this talk, I will walk through the basics of the Open Web and how to use Python to use this huge open database. The agenda includes the following: • Why Wikipedia? • Introduction to DBpedia and Wikidata • Introduction to Linked Data • How to query DBpedia/WikiData o Build SPARQL Query o Use Python’s SPARQLWrapper • Python Code Walkthrough to create o A Tabular Dataset using SPARQL o A Corpus for Language Models using Wikipedia and BeautifulSoup o An Use-Case leveraging both SPARQLWrapper and Wikipedia to Create Domain-Specific Corpus Prerequisites – Basic knowledge of Python programming, Natural Language Processing, and SQL