Skip to main content

Hallo @Astrid 

aus unserer Sicht wäre es wirklich sehr hilfreich eine GET API für das Recruiting Modul zu bekommen.

Wir versuchen Stück für Stück immer besser zu werden im Talent Acquisition und oft legt uns das Recruiting Modul auch keine Steine in den Weg, nur ein mächtiger Pain Point ist das Manuelle Exportieren der Rohdaten, die wir für unsere Auswertungen nutzen.

Ich hoffe diese Funktion kommt sehr bald.

Gibt es eventuell andere Nutzer, die ebenfalls eigene BI Tools für das Reporting aus den Recruiting-Daten nutzen?
Wie habt ihr das gelöst?
Mir fehlt hier wirklich der Austausch mit Personen, die das gleiche Problem haben oder Personen die das Know-How haben wie man eine gute Rohdaten-Pipeline in Personio aufbauen könnte.

Gibt’s dafür vielleicht einen Hack oder so? ;-)

Liebe Grüße,
Daniel

Hi @Toastfrosch,

nicht wundern, ich habe Deinen Post aus diesem Thread herausgelöst: 


@Benjamin Thüring und @Mary haben sich zum Export der Recruiting-Informationen für ein Reporting auch vor ein paar Monaten ausgetauscht. 
Aktuell gibt es noch keine super elegante Lösung zum Bereitstellen der Recruiting Daten via API, doch sie haben sich auch ausgetauscht, dass sie ein BI Tool verwenden und darin die Export Daten einspeisen. :) 


Liebe Grüße
Lena


Danke @Lena für das Anpingen. @Toastfrosch ich verstehe den Schmerz, aber der automatisierte Datenaustausch ist leider nicht möglich. Wie schon erwähnt, eine API gibt es derzeit nicht und scheint auch derzeit keine Prio zu haben. Leider kann auch nicht in Personio ersatzweise einen terminierten Datei-Export auf ein definiertes Laufwerk (z.B. Sharepoint) einrichten (der typische Plan von Enterprise-Programmen, die keine API anbieten oder Kunden versorgen wollen, die APIs nicht nutzen können).

Das heißt, du kannst nur den manuellen Export benutzen, so weit bekannt. Ich habe mit unserer internen Softwareentwicklungs-Abteilung eine Datawarehouse-Lösung gebaut. Simpel gesagt exportieren wir die csv-Datei mit einem Max-Zeitraum von 12 Monaten auf ein Sharepoint-Laufwerk. Die Datei wird derzeit einmal pro Tag gelesen, dann rennen Skripte drüber, anschließend landen die Daten als transformierte Tabellen in unserem Datawarehouse und können dann anschließend in unserem Visualisierungstool als Datenbasis genutzt werden.

Die 3 wichtigsten Problem, die wir lösen mussten, war:

  1. die korrekte Erweiterung der täglichen Datensätze in den Gesamtdatensatz. Das kann man für sich in Excel auch händisch machen oder mit einem Makro. 
  2. die automatische Aktualisierung der Daten, die sich geändert haben. Erfahrene Entwickler kriegen das flott hin, ohne Programmierkenntnisse ist das meiner Meinung nach schwierig.
  3. die korrekte Planung, welche Daten man eigentlich importieren/verarbeiten möchte. Wir/ich hatten anfangs nicht sauber geplant. Wir haben dann einen Workaround versucht und ich habe zuerst die orginale csv-Datei in Excel angepasst und dann erst auf dem Sharepoint abgelegt. Das hat aber zu massiven Formatierungsfehlern gefühlt, weil .cvs nicht gleich .csv ist. Da gibt es unterschiedliche Codierungen. Unser Extraktor ins Datawarehouse hat dann nur noch Fehler ausgespuckt. Dann mussten wir wieder 2 Schritte zurück und das Problem lösen. Ging flott, aber

Die Lösung funktioniert für uns derzeit, ist aber absolut kein dauerhafter Ersatz für eine API.
Jedes Mal, wenn wir ein in Personio einen Attributename ändern (müssen), dann müssen wir diese Änderung auch händisch in unserem Extraktor anpassen, da sonst die Datenzuordnung nicht mehr funktioniert. Da ist man mit einer Datenfeld-ID einer API auf der sichereren Seite. Und neben dem nicht unerheblichen Entwicklungsaufwand steht auch die Nicht-Automatisierung im Raum. Ab und zu vergesse ich den manuellen Export (den wir täglich machen), und dann muss ich bis zum nächsten Tag warten, weil der Datai-Fetch einmal pro Tag über Nacht läuft.

@Toastfrosch wie ist denn eure Daten-/Tool-Umgebung?

 

 


Deine Antwort