Projekt: SAP related search, archiving and evaluation engine (sap.repost.it)

Zukünftig möchte ich in einer eigenen Blogserie meine angefangenen, beendeten und geplanten Projekte vorstellen. Vorwiegend setzen diese technologisch auf SAP HANA. Beschäftigen sich aber auch zudem mit Python und JavaScript/Node.js.

Das erste Projekt der Serie wurde erst vor Kurzem fertig und handel sich um eine “SAP related search, archiving and evaluation engine”. Kurz: sap.repost.it

Problem

Ich hatte bisher das Problem, dass ich ca. 300 Bookmarks zu interessanten SAP HANA, SAP BW oder SAP Beiträgen verwaltet und dokumentiert habe – wachsend. Bis ca. 150 Bookmarks habe ich den Bookmark Manager von Chrome genutzt. Allerdings verschwanden interessante Quellen teilweiße oder ganz und die Verwaltung war grausam. Daher ging ich über in OneNote alles zu dokumentieren. Zumal OneNote ein gute Suchfunktion besitzt. Ab etwas 250 Bookmarks waren auch hier einige Dupletten zu finden und die Verwaltung war immer noch umständlich. Durch die Offline-Inhalte war zudem die App nicht mehr nutzbar, da ich stark am Speicherlimit stand (Download der Offline-Inhalte).

Lösung

Also machte ich mich dran eine SAPUI5 Lösung auf einer SAP HANA, express edition zu entwickeln. Folgende Bedingungen sollten erfüllt werden:

  • unkompliziertes und einfaches Einfügen neuer Links
  • unkomplizierte und einfache Suche nach Informationen
  • unkompliziertes und einfaches Bewertungssystem (sowie Alerting, etc.)

Ergebnis

Ergebnis ist http://sap.repost.it – eine “SAP related search, archiving and evaluation engine”. Und aktuell in einer eigenen Beta, also nur mit Login momentan.

Das ganze Projekt habe ich in der OpenUI5 Library über die SAP HANA, express edition realisiert. Dabei nutze ich hauptsächlich CustomListItems für die Darstellung der Suchergebnisse und ein möglichst minimalistisches Design (oben rechts ein Hinzufügen, Suchleiste, Suchergebnisse). Die Suche bietet SAP HANA auch in der Express Edition bereits nativ über Core Data Services und XSOData. In Summe habe ich die Anwendung innerhalb weniger Stunden in der Freizeit programmieren könne.

Für die Archivierung und das Aufbereiten der Informationen zur Darstellung in der Suche bin ich zusätzlichen einen anderen Weg gegangen. So habe ich eine Python-basierte API geschrieben, welche mir Inhalte der Webseite aufbereitet, Screenshots macht und ablegt, sowie zur Dokumentation ein Druck als PDF macht und ablegt. Als Rückgabe bekomme ich lediglich ein JSON mit den Texten und Pfadangaben zur den externen Inhalten. Diese API habe ich in die Anwendung für das Hinzufügen integriert. Ich gebe eine Homepage und bekomme Informationen darüber zurück -in Echtzeit zum Zeitpunkt der Abfrage. So folge ich ab sofort auch offiziell dem “API-Trend”.

Es fehlt noch das ein oder andere Feature, aber was nicht ist kann noch werden 🙂 Wer mehr Interesse an meinen aktuellen Projekten hat, kann sich auch gerne hier umschauen.

Post a Comment

*