hopefully better performance running the big query once and then fetching results...
authorivan <ivan>
Wed, 22 Apr 2009 20:24:52 +0000 (20:24 +0000)
committerivan <ivan>
Wed, 22 Apr 2009 20:24:52 +0000 (20:24 +0000)
FS/FS/Cron/bill.pm

index 899b117..4e88173 100644 (file)
@@ -95,24 +95,23 @@ END
 
   push @search, "( $where_pkg OR $where_event )";
 
-  my $prev_custnum = 0;
-  while ( 1 ) {
+  ###
+  # get a list of custnums
+  ###
 
-    ###
-    # get a list of custnums
-    ###
+  warn "searching for customers:\n". join("\n", @search). "\n"
+    if $opt{'v'} || $opt{'l'};
+
+  dbh->do(
+    "DECLARE cron_bill_cursor CURSOR WITH HOLD FOR ". #no WITH HOLD for mysql?
+    "  SELECT custnum FROM cust_main ".
+    "    WHERE ". join(' AND ', @search).
+    "    ORDER BY custnum " #LIMIT 1000 "
+  ) or die dbh->errstr;
 
-    warn "searching for customers:\n".
-           join("\n", @search).
-           "custnum > $prev_custnum\n"
-      if $opt{'v'} || $opt{'l'};
+  while ( 1 ) {
 
-    my $sth = dbh->prepare(
-      "SELECT custnum FROM cust_main".
-      " WHERE ". join(' AND ', @search).
-      " AND custnum > $prev_custnum ".
-      " ORDER BY custnum LIMIT 1000 "
-    ) or die dbh->errstr;
+    my $sth = dbh->prepare('FETCH 1000 FROM cron_bill_cursor'); #mysql?
 
     $sth->execute or die $sth->errstr;
 
@@ -120,8 +119,6 @@ END
 
     last unless scalar(@custnums);
 
-    $prev_custnum = $custnums[-1];
-
     ###
     # for each custnum, queue or make one customer object and bill
     # (one at a time, to reduce memory footprint with large #s of customers)