Real URL tx_realurl_urlencodecache nach zwei Tagen riesig [Gelöst]

  • design-galaxie design-ga...
    Sternenflotten-Admiral
    0 x
    164 Beiträge
    0 Hilfreiche Beiträge
    12. 01. 2010, 14:51

    Hallo zusammen,

    ich habe auf einer Seite die Calendarbase installiert und RealURL am Anfang läuft alles normal nach 2 Tagen habe ich aber in der tabelle tx_realurl_urlencodecache Records in table: 1628484

    Die Konfiguration (.htaccess, localconf.php) ist die gleiche wie ich sie immer verwende bei besagter Instanz ist der einzigste Unterschied eben das Calendarbase installiert ist weiß jemand was man gegen das Problem machen kann? Real URL habe ich jetzt erstmal wieder deinstalliert.

    mfg

    martin


  • 1
  • design-galaxie design-ga...
    Sternenflotten-Admiral
    0 x
    164 Beiträge
    0 Hilfreiche Beiträge
    12. 01. 2010, 15:31

    Kleiner Nachtrag noch der localconf Part für CalendarBase:

    1. CALENDAR BASE
    2. * Add the following to the postVarSets section of your RealURL config in typo3conf/localconf.php
    3. */
    4.  
    5. 'cal'=> array(
    6. 'GETvar' => 'tx_cal_controller[view]'
    7. ),
    8. 'GETvar' => 'tx_cal_controller[getdate]'
    9. ),
    10. 'GETvar' => 'tx_cal_controller[lastview]'
    11. ),
    12. 'GETvar' => 'tx_cal_controller[type]'
    13. ),
    14.  
    15. 'GETvar' => 'tx_cal_controller[category]',
    16. 'lookUpTable' => array(
    17. 'table' => 'tx_cal_category',
    18. 'id_field' => 'uid',
    19. 'alias_field' => 'title',
    20. 'addWhereClause' => ' AND NOT deleted',
    21. 'useUniqueCache' => 1,
    22. 'useUniqueCache_conf' => array(
    23. 'strtolower' => 1,
    24. 'spaceCharacter' => '_',
    25. ),
    26.  
    27. ),
    28. ),
    29. 'GETvar' => 'tx_cal_controller[uid]',
    30. 'lookUpTable' => array(
    31. 'table' => 'tx_cal_event',
    32. 'id_field' => 'uid',
    33. 'alias_field' => 'title',
    34. 'addWhereClause' => ' AND NOT deleted',
    35. 'useUniqueCache' => 1,
    36. 'useUniqueCache_conf' => array(
    37. 'strtolower' => 1,
    38. 'spaceCharacter' => '_',
    39. ),
    40. ),
    41. ),
    42. ),
    43.  
    44. /*
    45.  CALENDAR BASE END
    46.  */

    Nach dem ich realurl jetzt wieder sauber installiert habe sind in der tx_realurl_urlencodecache nach 3 Minuten schon wieder über 8000 Einträge, die wie folgt aussehen.

    [img]http://www.design-galaxie.de/uploads/media/tx_realurl_urlencodecache-problem.jpg[/img]

    Weitere Infos: Calendarbase läuft in der Version 1.2.1 allerdings ohne Date2Cal

    Kalendereinträge in meiner Sysfolder aktuell 43 Stück

    Kalender auf der Seite: 6 Stück

    Kategorien: 7 Stück

  • design-galaxie design-ga...
    Sternenflotten-Admiral
    0 x
    164 Beiträge
    0 Hilfreiche Beiträge
    13. 01. 2010, 14:24

    Ok Problem gelöst, verdammte Robots :D Falls jemand mal ein ähnliches Problem hat, ins Logfile schauen und ne entsprechende robots.txt schreiben und dann läuft alles ganz smooth :)

  • 0 x
    20 Beiträge
    0 Hilfreiche Beiträge
    28. 04. 2010, 11:18

    Hallo design-galaxie

    ich habe das selbe Problem, jedoch ohne Calender-Base.
    Meine tx_realurl_encodecache ist sagenhafte 30,8MB groß, womit die Datenbank allgemein so groß ist, daß ich mit mysqldumper keinerlei Backup mehr hinbekomme, weil die zulässige Skriptlaufzeit überschritten wird.

    Darum meine Frage an Dich: wie bekomme ich die Tabelle wieder leer und was genau meinst Du mit Deiner Lösung von wegen robots.txt? Hilfst Du mir bitte auf die Sprünge?

    Danke und Gruß,
    chapolote

  • JBrooks JBrooks
    R2-D2
    0 x
    96 Beiträge
    0 Hilfreiche Beiträge
    31. 08. 2010, 09:36

    Ein paar weitere Infos was du genau in der robots.txt gemacht hast, würde mich auch interessieren :)

  • design-galaxie design-ga...
    Sternenflotten-Admiral
    0 x
    164 Beiträge
    0 Hilfreiche Beiträge
    31. 08. 2010, 14:03

    Die tx_realurl_encodecache würde ich einfach flushen -> phpmyadmin installieren und die tx_realurl_encodecache Tabelle leeren. Wobei ich das nur machen würde wenn ich mir sicher bin, dass die restliche Datenbank sauber ist, bin bei sowas immer eher vorsichtig, eigentlich dürfte man dadurch nichts zerschießen aber naja der Teufel ist ein Eichhörnchen. Die robots.txt habe ich mit der Extension weeaar_robotstxt angelegt. Mehr zur robots.txt steht unter folgendem Link.

    http://www.abakus-internet-marketing.de/seo-artikel/robots-txt.htm

  • JBrooks JBrooks
    R2-D2
    0 x
    96 Beiträge
    0 Hilfreiche Beiträge
    01. 09. 2010, 02:12

    Danke für deine schnelle Antwort!

    Hab die Tabelle schon geleert, das blöde ist nur dass die innerhalb von 1-2 Tage schon wieder im 5 stelligen Bereich liegt und wächst und wächst.

    Werd das mit der robot.txt mal probieren...

  • design-galaxie design-ga...
    Sternenflotten-Admiral
    0 x
    164 Beiträge
    0 Hilfreiche Beiträge
    01. 09. 2010, 10:29

    Ja, wobei du, wenn du ans Apache Logfile kommst, erstmal schauen solltest welcher Bot da unter umständen für chaos sorgt. Falls das mit der weeaar_robots Extension nicht klappt und der Problembot immer noch rein kommt, kannst du glaube ich bestimmte Bots / oder alles via Serverconfig aussperren. Bin kein Sysadmin wo / wie das genau geht weiß ich nicht, gibt hier aber sicher jemanden der das genauer weiß. :)

  • 0 x
    20 Beiträge
    0 Hilfreiche Beiträge
    01. 09. 2010, 11:49

    [quote="JBrooks"]
    Hab die Tabelle schon geleert, das blöde ist nur dass die innerhalb von 1-2 Tage schon wieder im 5 stelligen Bereich liegt und wächst und wächst.
    [/quote]

    Kann ich nur bestätigen und deshalb brechen auch immer wieder meine cronjobs zur Datenbanksicherung mit mysqldumper vorzeitig ab.

    Bin gespannt auf Deine Erfahrungen mit der robots.txt, ich komm momentan einfach nicht dazu...

    Gruß, chapolote

  • 1