Semantik Web :-/

Bild zum Vergrößern anklicken
Foto Thomas
Rechte nicht festgelegt
Blogbeitrag
Mehr Information:
Recherche Übersicht: --> Bilder-Archiv zu den Garten-Blogs
Recherche Übersicht: --> Bilder und Fotos zum Blog - Webmaserblog, News usw...
Nun ist es raus ... ein neues Schlagwort in den Medien ... klingt fast wie
ein Drohung: "Semantik Web" das semantische Internet, das neue Internet ... und
wenn ich es richtig verstanden habe, dann soll das wohl so eine Art Internet
ohne Suchmaschine sein, wo quasi der Rechner später selber das sucht, was der
Nutzer will - ähnlich einem Rechtschreibeprogramm - denke ich mal.
So also die Presse: Semantik, die Bedeutungslehre oder Semasiologie, der Sprach-Zeichen, die sollen nun irgendwie maschinenlesbar werden: dieses wird "derzeit am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) entwickelt: Das Internet soll klüger werden. Zwar ist beim DFKI kein allmächtiger Zentralcomputer in Planung, der auf alle Fragen dieser Welt eine gute Antwort weiß. Doch mittels semantischer Beschreibungen sollen Computer in die Lage versetzt werden, Daten zu verstehen. Das Bundeswirtschaftsministerium hat dafür ein millionenschweres Forschungsprogramm aufgelegt, " Theseus" genannt, an dem sich neben dem DFKI weitere Firmen und Universitäten beteiligen. [Quelle: Spiegel Online, 4. Juni 2008]
Wenn Millionengelder für die Forschung ausgegeben werden, dann wird da auch etwas dafür gemacht: es wird geforscht. Allerdings bleibt es auch dabei, so denke ich. Bevor dort irgendwelche Ergebnisse in der Praxis getestet werden, ist die Konkurrenz sicher schon wieder mal um Kilometer, oder besser: um Jahre voraus.
Die intelligente Suchmaschine, so denke ich, die hat genügend Infomaterial, was sie verarbeiten kann - schon im herkömmlichen Web. Nach meinem Bauchgefühl arbeitet google schon lange an der Lösung und die bekannte Suchmaschine ist schon ein Vorläufer einer gewissen künstlichen Intelligenz, welche auch mit relativ ungeordneten Daten immer intelligentere Ergebnisse erzielt.
Wenn dann die Wissenschaftler diese ständig intelligenter werdende Kunst-Intelligenz nun wieder mit hausbackenen Datenmanipulationen verbessern will, so ist das eher wieder ein Rückschritt:
Spiegel online: "Das Problem ist nur: Wie bohrt man die 98 Prozent Webinhalte auf, die noch keine semantischen Beschreibungen aufweisen? Für neu erstellte Webseiten wird es spezielle Editoren geben, in die man semantische Tags eingibt - fertig. Doch was geschieht mit den Milliarden existierenden Seiten? Wolfgang Wahlster sieht zwei Möglichkeiten: Spezielle Software, die von Firmen wie Empolis oder Living E entwickelt wird, soll bestehende Webseiten automatisch in semantische verwandeln. ..."
Naja ... das wird nischt ... das kann nichts werden :-/
Eines der Geheimnisse von google ist wohl, das es nicht eine Suchmaschine ist, sondern tausende unabhängige Suchmaschinen, die miteinander zusammenarbeiten - es ist also eine dezentrale Informationsverarbeitung. Wer nun von dem erprobten Grundkonzept abrückt, dessen Scheitern ist vor-programmiert ;-) thomas jacob
pictokon.net -> Bilder und Notizen, Materielien zum Blog:
So also die Presse: Semantik, die Bedeutungslehre oder Semasiologie, der Sprach-Zeichen, die sollen nun irgendwie maschinenlesbar werden: dieses wird "derzeit am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) entwickelt: Das Internet soll klüger werden. Zwar ist beim DFKI kein allmächtiger Zentralcomputer in Planung, der auf alle Fragen dieser Welt eine gute Antwort weiß. Doch mittels semantischer Beschreibungen sollen Computer in die Lage versetzt werden, Daten zu verstehen. Das Bundeswirtschaftsministerium hat dafür ein millionenschweres Forschungsprogramm aufgelegt, " Theseus" genannt, an dem sich neben dem DFKI weitere Firmen und Universitäten beteiligen. [Quelle: Spiegel Online, 4. Juni 2008]
Wenn Millionengelder für die Forschung ausgegeben werden, dann wird da auch etwas dafür gemacht: es wird geforscht. Allerdings bleibt es auch dabei, so denke ich. Bevor dort irgendwelche Ergebnisse in der Praxis getestet werden, ist die Konkurrenz sicher schon wieder mal um Kilometer, oder besser: um Jahre voraus.
Die intelligente Suchmaschine, so denke ich, die hat genügend Infomaterial, was sie verarbeiten kann - schon im herkömmlichen Web. Nach meinem Bauchgefühl arbeitet google schon lange an der Lösung und die bekannte Suchmaschine ist schon ein Vorläufer einer gewissen künstlichen Intelligenz, welche auch mit relativ ungeordneten Daten immer intelligentere Ergebnisse erzielt.
Wenn dann die Wissenschaftler diese ständig intelligenter werdende Kunst-Intelligenz nun wieder mit hausbackenen Datenmanipulationen verbessern will, so ist das eher wieder ein Rückschritt:
Spiegel online: "Das Problem ist nur: Wie bohrt man die 98 Prozent Webinhalte auf, die noch keine semantischen Beschreibungen aufweisen? Für neu erstellte Webseiten wird es spezielle Editoren geben, in die man semantische Tags eingibt - fertig. Doch was geschieht mit den Milliarden existierenden Seiten? Wolfgang Wahlster sieht zwei Möglichkeiten: Spezielle Software, die von Firmen wie Empolis oder Living E entwickelt wird, soll bestehende Webseiten automatisch in semantische verwandeln. ..."
Naja ... das wird nischt ... das kann nichts werden :-/
Eines der Geheimnisse von google ist wohl, das es nicht eine Suchmaschine ist, sondern tausende unabhängige Suchmaschinen, die miteinander zusammenarbeiten - es ist also eine dezentrale Informationsverarbeitung. Wer nun von dem erprobten Grundkonzept abrückt, dessen Scheitern ist vor-programmiert ;-) thomas jacob
pictokon.net -> Bilder und Notizen, Materielien zum Blog:
![]() |
![]() |
![]() |
![]() |
![]() |