
Regulärer Ausdruck; Klammernparsung
- << Erste
- < Vorherige
-
- 1
- 2
- Nächste >
- Letzte >>
Verfasst am: 13. 03. 2014 [10:10] | ||
joerg 1984 BeiträgeFachinformatiker Anwendungsentwicklung Dabei seit: 09.06.2009 ![]() ✶✶ Sehr aktiver Seitenreport Vorantreiber ![]() Nachricht schreiben Beiträge | Beitrag hilfreich? Hallo Kann auch nicht gehen wenn man die falsche Reihenfolge nimmt um die Unterabfragen nicht einzubeziehen. (?:\{)([^\}]+\}[^\}]+\})(?:\}) Bei deinem gewünschten Ergebnis sollte das aber noch ausreichen. \{([^\}]+\}[^\}]+\})\} Mit diesen Möglichkeiten wäre das dann wohl \{([i\$\#\~\!\+\@\?][^\}]+\}[^\}]+\})\} Gruß Jörg |
Verfasst am: 13. 03. 2014 [10:27] | ||
Chance 182 BeiträgeProgrammierer Dabei seit: 13.11.2009 ![]() Aktiverer Schreiber Themenersteller Nachricht schreiben Beiträge | Beitrag hilfreich? Der Reguläre Ausdruck gibt mir keine Rückgabe zurück. Aber danke für den Denkansatz. |
Verfasst am: 13. 03. 2014 [10:53] | ||
joerg 1984 BeiträgeFachinformatiker Anwendungsentwicklung Dabei seit: 09.06.2009 ![]() ✶✶ Sehr aktiver Seitenreport Vorantreiber ![]() Nachricht schreiben Beiträge | Beitrag hilfreich? Hallo Und mir kommt so langsam ein Verdacht das du ausdrücklich mit Leerzeichen vor der letzten Klammer suchen musst. Dann sind nur die letzten Beispiele sehr ungeeignet. \{([^\}]+\}[^\}]+\})\s*\} Gruß Jörg |
Verfasst am: 13. 03. 2014 [11:06] | ||
Chance 182 BeiträgeProgrammierer Dabei seit: 13.11.2009 ![]() Aktiverer Schreiber Themenersteller Nachricht schreiben Beiträge | Beitrag hilfreich? Das Ergebnis ist soweit schon mal korrekt, aber die Leerzeichen sind nur Optional. Edit: Funktioniert auch ohne Leerzeichen. Aber wenn man ein "{@index_start}" davor setzt oder danach, wird dieses nicht erkannt. Edit 2: Kommen mehrere Zeichen in der zweiten Klammer vor, wird ein falsches Ergebnis erkannt. [Dieser Beitrag wurde 2mal bearbeitet, zuletzt am 13.03.2014 um 11:33.] |
Verfasst am: 08. 05. 2016 [22:56] | ||
Gunnes 11 BeiträgeDabei seit: 28.04.2016 ![]() Nicht Untätiger Nachricht schreiben Beiträge | Beitrag hilfreich? Gibt es dafür mitlerweile eine Lösung? Habe das selbe Problem. |
- << Erste
- < Vorherige
-
- 1
- 2
- Nächste >
- Letzte >>
Du bist nicht eingeloggt. Bitte beachte, dass Du eingeloggt sein musst, um Themen zu erstellen oder auf Beiträge zu antworten.

Werde in Echtzeit über neue Foren-Beiträge informiert:
3 Mitglieder waren innerhalb der letzten 15 Minuten online (36 heute gesamt):
andybird, enoxx, ruchisharma
Administratoren und Moderatoren:
[keine]
Seitenreport hat 46850 registrierte Mitglieder, 4325 Themen und 37654 Beiträge.
Der aktuelle Mitgliederzuwachs liegt bei durchschnittlich 4 bestätigten Neuregistrierungen pro Tag.
Pro Tag werden im Seitenreport Forum durchschnittlich 0 neue Themen und 0 Beiträge erstellt.
Die Durchschnittszahlen berechnen sich aus den letzten 7 Tagen.

Lade...
Lade...
HIER WERBEN - ANZEIGEN
Neueste Foren-Beiträge
![]() | TYPO3 Web-Entwicklung / TYPO3 | Heute [11:54] |
![]() | Vergleich und Test der aktuellen Akkuschrauber Entwickler Treffpunkt / Website vorstellen | 15. 04. 2018 [09:06] |
![]() | E-Mail ändern Internes & Ankündigungen / Feedback | 14. 04. 2018 [22:42] |
![]() | JSON Script für strukturierte Daten Suchmaschinenoptimierung / OnPage Optimierung | 14. 04. 2018 [08:26] |
![]() | Löschung Internes & Ankündigungen / Forum | 13. 04. 2018 [18:58] |
Aktuelle Artikel:
Webcrawler aussperren, die die robots.txt ignorieren
Webcrawler können für erheblichen zusätzlichen Traffic auf Deiner Website sorgen und Inhalte in Suchmaschinen bringen, die eigentlich nicht für die Öffentlichkeit gedacht sind. Dies können z.B. Nutzerprofile sein, die zwar öffentlich zugänglich sein, in Suchmaschinen aber nicht auftauchen sollen. Was aber tun, wenn sich ein Crawler nicht an die Angaben in der robots.txt hält und wahllos Seiten indexiert, die explizit ausgeschlossen werden sollen?
Weitere 5 Quellen kostenloser Backlinks
Nachdem der Artikel über die "10 kostenlosen Backlink-Quellen" vom Juni 2012 so eingeschlagen hatte und bis zum heutigen Datum von bereits 279 Personen kommentiert wurde, möchte ich euch heute 5 weitere kostenlose Backlink-Quellen für euer Linkbuilding vorstellen.
Grundlagen der Website Performance - 1. Requests
Spätestens seit Studien belegen, dass eine schnellere Website Ladezeit zu mehr Kaufabschlüssen führt und Google die Ladezeit als Rankingfaktor für die Platzierungen in den Suchmaschinen verwendet, ist die Website Performance Optimierung für jeden Webmaster ein Muss. Dabei ist die Verminderung der HTTP Requests ein Hebel, an dem man mit wenig Vorwissen schnell ansetzen kann und mit dem man nach kurzer Zeit bereits deutliche Verbesserungen erreicht.
Webcrawler aussperren, die die robots.txt ignorieren
Webcrawler können für erheblichen zusätzlichen Traffic auf Deiner Website sorgen und Inhalte in Suchmaschinen bringen, die eigentlich nicht für die Öffentlichkeit gedacht sind. Dies können z.B. Nutzerprofile sein, die zwar öffentlich zugänglich sein, in Suchmaschinen aber nicht auftauchen sollen. Was aber tun, wenn sich ein Crawler nicht an die Angaben in der robots.txt hält und wahllos Seiten indexiert, die explizit ausgeschlossen werden sollen?
05. Juni 2014
Weitere 5 Quellen kostenloser Backlinks
Nachdem der Artikel über die "10 kostenlosen Backlink-Quellen" vom Juni 2012 so eingeschlagen hatte und bis zum heutigen Datum von bereits 279 Personen kommentiert wurde, möchte ich euch heute 5 weitere kostenlose Backlink-Quellen für euer Linkbuilding vorstellen.
05. April 2013
Grundlagen der Website Performance - 1. Requests
Spätestens seit Studien belegen, dass eine schnellere Website Ladezeit zu mehr Kaufabschlüssen führt und Google die Ladezeit als Rankingfaktor für die Platzierungen in den Suchmaschinen verwendet, ist die Website Performance Optimierung für jeden Webmaster ein Muss. Dabei ist die Verminderung der HTTP Requests ein Hebel, an dem man mit wenig Vorwissen schnell ansetzen kann und mit dem man nach kurzer Zeit bereits deutliche Verbesserungen erreicht.
03. April 2013