Open Source Repository

Home /hibernate/hibernate-3.2.7.ga | Repository Home


org/hibernate/hql/ast/HqlSqlWalker.java
// $Id: HqlSqlWalker.java 16667 2009-06-02 15:39:48Z [email protected] $
package org.hibernate.hql.ast;

import java.io.Serializable;
import java.util.ArrayList;
import java.util.Date;
import java.util.HashMap;
import java.util.HashSet;
import java.util.Iterator;
import java.util.List;
import java.util.Map;
import java.util.Set;
import java.util.Arrays;

import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.hibernate.QueryException;
import org.hibernate.HibernateException;
import org.hibernate.engine.JoinSequence;
import org.hibernate.engine.ParameterBinder;
import org.hibernate.engine.SessionFactoryImplementor;
import org.hibernate.hql.QueryTranslator;
import org.hibernate.hql.antlr.HqlSqlBaseWalker;
import org.hibernate.hql.antlr.HqlSqlTokenTypes;
import org.hibernate.hql.antlr.HqlTokenTypes;
import org.hibernate.hql.antlr.SqlTokenTypes;
import org.hibernate.hql.ast.tree.AssignmentSpecification;
import org.hibernate.hql.ast.tree.CollectionFunction;
import org.hibernate.hql.ast.tree.ConstructorNode;
import org.hibernate.hql.ast.tree.DeleteStatement;
import org.hibernate.hql.ast.tree.DotNode;
import org.hibernate.hql.ast.tree.FromClause;
import org.hibernate.hql.ast.tree.FromElement;
import org.hibernate.hql.ast.tree.FromReferenceNode;
import org.hibernate.hql.ast.tree.IdentNode;
import org.hibernate.hql.ast.tree.IndexNode;
import org.hibernate.hql.ast.tree.InsertStatement;
import org.hibernate.hql.ast.tree.IntoClause;
import org.hibernate.hql.ast.tree.MethodNode;
import org.hibernate.hql.ast.tree.ParameterNode;
import org.hibernate.hql.ast.tree.QueryNode;
import org.hibernate.hql.ast.tree.ResolvableNode;
import org.hibernate.hql.ast.tree.RestrictableStatement;
import org.hibernate.hql.ast.tree.SelectClause;
import org.hibernate.hql.ast.tree.SelectExpression;
import org.hibernate.hql.ast.tree.UpdateStatement;
import org.hibernate.hql.ast.tree.OperatorNode;
import org.hibernate.hql.ast.tree.ParameterContainer;
import org.hibernate.hql.ast.util.ASTPrinter;
import org.hibernate.hql.ast.util.ASTUtil;
import org.hibernate.hql.ast.util.AliasGenerator;
import org.hibernate.hql.ast.util.JoinProcessor;
import org.hibernate.hql.ast.util.LiteralProcessor;
import org.hibernate.hql.ast.util.SessionFactoryHelper;
import org.hibernate.hql.ast.util.SyntheticAndFactory;
import org.hibernate.hql.ast.util.NodeTraverser;
import org.hibernate.id.IdentifierGenerator;
import org.hibernate.id.PostInsertIdentifierGenerator;
import org.hibernate.id.SequenceGenerator;
import org.hibernate.param.NamedParameterSpecification;
import org.hibernate.param.ParameterSpecification;
import org.hibernate.param.PositionalParameterSpecification;
import org.hibernate.param.VersionTypeSeedParameterSpecification;
import org.hibernate.param.CollectionFilterKeyParameterSpecification;
import org.hibernate.persister.collection.QueryableCollection;
import org.hibernate.persister.entity.Queryable;
import org.hibernate.sql.JoinFragment;
import org.hibernate.type.AssociationType;
import org.hibernate.type.Type;
import org.hibernate.type.VersionType;
import org.hibernate.type.DbTimestampType;
import org.hibernate.usertype.UserVersionType;
import org.hibernate.util.ArrayHelper;
import org.hibernate.util.StringHelper;

import antlr.ASTFactory;
import antlr.RecognitionException;
import antlr.SemanticException;
import antlr.collections.AST;

/**
 * Implements methods used by the HQL->SQL tree transform grammar (a.k.a. the second phase).
 <ul>
 <li>Isolates the Hibernate API-specific code from the ANTLR generated code.</li>
 <li>Handles the SQL framgents generated by the persisters in order to create the SELECT and FROM clauses,
 * taking into account the joins and projections that are implied by the mappings (persister/queryable).</li>
 <li>Uses SqlASTFactory to create customized AST nodes.</li>
 </ul>
 *
 @see SqlASTFactory
 */
public class HqlSqlWalker extends HqlSqlBaseWalker implements ErrorReporter, ParameterBinder.NamedParameterSource {
  private static final Log log = LogFactory.getLogHqlSqlWalker.class );

  private final QueryTranslatorImpl queryTranslatorImpl;
  private final HqlParser hqlParser;
  private final SessionFactoryHelper sessionFactoryHelper;
  private final Map tokenReplacements;
  private final AliasGenerator aliasGenerator = new AliasGenerator();
  private final LiteralProcessor literalProcessor;
  private final ParseErrorHandler parseErrorHandler;
  private final ASTPrinter printer;
  private final String collectionFilterRole;

  private FromClause currentFromClause = null;
  private SelectClause selectClause;

  private Set querySpaces = new HashSet();

  private int parameterCount;
  private Map namedParameters = new HashMap();
  private ArrayList parameters = new ArrayList();
  private int numberOfParametersInSetClause;
  private int positionalParameterCount;

  private ArrayList assignmentSpecifications = new ArrayList();

  private int impliedJoinType;



  /**
   * Create a new tree transformer.
   *
   @param qti Back pointer to the query translator implementation that is using this tree transform.
   @param sfi The session factory implementor where the Hibernate mappings can be found.
   @param parser A reference to the phase-1 parser
   @param tokenReplacements Registers the token replacement map with the walker.  This map will
   * be used to substitute function names and constants.
   @param collectionRole The collection role name of the collection used as the basis for the
   * filter, NULL if this is not a collection filter compilation.
   */
  public HqlSqlWalker(
      QueryTranslatorImpl qti,
      SessionFactoryImplementor sfi,
      HqlParser parser,
      Map tokenReplacements,
      String collectionRole) {
    setASTFactorynew SqlASTFactorythis ) );
    this.parseErrorHandler = new ErrorCounter();
    this.queryTranslatorImpl = qti;
    this.sessionFactoryHelper = new SessionFactoryHelpersfi );
    this.literalProcessor = new LiteralProcessorthis );
    this.tokenReplacements = tokenReplacements;
    this.hqlParser = parser;
    this.printer = new ASTPrinterSqlTokenTypes.class );
    this.collectionFilterRole = collectionRole;
  }


  // handle trace logging ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

    private int traceDepth = 0;

  public void traceIn(String ruleName, AST tree) {
    if inputState.guessing > ) {
      return;
    }
    String prefix = StringHelper.repeat'-'(traceDepth++ * 2) ) "-> ";
    String traceText = ruleName + " (" + buildTraceNodeName(tree")";
    traceprefix + traceText );
  }

  private String buildTraceNodeName(AST tree) {
    return tree == null
        "???"
        : tree.getText() " [" + printer.getTokenTypeNametree.getType() ) "]";
  }

  public void traceOut(String ruleName, AST tree) {
    if inputState.guessing > ) {
      return;
    }
    String prefix = "<-" + StringHelper.repeat'-'(--traceDepth * 2) ) " ";
    traceprefix + ruleName );
  }

  private void trace(String msg) {
    log.tracemsg );
  }


  // semantic action handling ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

  protected void prepareFromClauseInputTree(AST fromClauseInput) {
    if !isSubQuery() ) {
//      // inject param specifications to account for dynamic filter param values
//      if ( ! getEnabledFilters().isEmpty() ) {
//        Iterator filterItr = getEnabledFilters().values().iterator();
//        while ( filterItr.hasNext() ) {
//          FilterImpl filter = ( FilterImpl ) filterItr.next();
//          if ( ! filter.getFilterDefinition().getParameterNames().isEmpty() ) {
//            Iterator paramItr = filter.getFilterDefinition().getParameterNames().iterator();
//            while ( paramItr.hasNext() ) {
//              String parameterName = ( String ) paramItr.next();
//              // currently param filters *only* work with single-column parameter types;
//              // if that limitation is ever lifted, this logic will need to change to account for that
//              ParameterNode collectionFilterKeyParameter = ( ParameterNode ) astFactory.create( PARAM, "?" );
//              DynamicFilterParameterSpecification paramSpec = new DynamicFilterParameterSpecification(
//                  filter.getName(),
//                  parameterName,
//                  filter.getFilterDefinition().getParameterType( parameterName ),
//                   positionalParameterCount++
//              );
//              collectionFilterKeyParameter.setHqlParameterSpecification( paramSpec );
//              parameters.add( paramSpec );
//            }
//          }
//        }
//      }

      if isFilter() ) {
        // Handle collection-fiter compilation.
        // IMPORTANT NOTE: This is modifying the INPUT (HQL) tree, not the output tree!
        QueryableCollection persister = sessionFactoryHelper.getCollectionPersistercollectionFilterRole );
        Type collectionElementType = persister.getElementType();
        if !collectionElementType.isEntityType() ) {
          throw new QueryException"collection of values in filter: this" );
        }

        String collectionElementEntityName = persister.getElementPersister().getEntityName();
        ASTFactory inputAstFactory = hqlParser.getASTFactory();
        AST fromElement = inputAstFactory.createFILTER_ENTITY, collectionElementEntityName );
        ASTUtil.createSiblinginputAstFactory, HqlTokenTypes.ALIAS, "this", fromElement );
        fromClauseInput.addChildfromElement );
        // Show the modified AST.
        if log.isDebugEnabled() ) {
          log.debug"prepareFromClauseInputTree() : Filter - Added 'this' as a from element..." );
        }
        queryTranslatorImpl.showHqlAsthqlParser.getAST() );

        // Create a parameter specification for the collection filter...
        Type collectionFilterKeyType = sessionFactoryHelper.requireQueryableCollectioncollectionFilterRole ).getKeyType();
        ParameterNode collectionFilterKeyParameter = ParameterNode astFactory.createPARAM, "?" );
        CollectionFilterKeyParameterSpecification collectionFilterKeyParameterSpec = new CollectionFilterKeyParameterSpecification(
            collectionFilterRole, collectionFilterKeyType, positionalParameterCount++
        );
        collectionFilterKeyParameter.setHqlParameterSpecificationcollectionFilterKeyParameterSpec );
        parameters.addcollectionFilterKeyParameterSpec );
      }
    }
  }

  public boolean isFilter() {
    return collectionFilterRole != null;
  }

  public String getCollectionFilterRole() {
    return collectionFilterRole;
  }

  public SessionFactoryHelper getSessionFactoryHelper() {
    return sessionFactoryHelper;
  }

  public Map getTokenReplacements() {
    return tokenReplacements;
  }

  public AliasGenerator getAliasGenerator() {
    return aliasGenerator;
  }

  public FromClause getCurrentFromClause() {
    return currentFromClause;
  }

  public ParseErrorHandler getParseErrorHandler() {
    return parseErrorHandler;
  }

  public void reportError(RecognitionException e) {
    parseErrorHandler.reportError)// Use the delegate.
  }

  public void reportError(String s) {
    parseErrorHandler.reportError)// Use the delegate.
  }

  public void reportWarning(String s) {
    parseErrorHandler.reportWarning);
  }

  /**
   * Returns the set of unique query spaces (a.k.a.
   * table names) that occurred in the query.
   *
   @return A set of table names (Strings).
   */
  public Set getQuerySpaces() {
    return querySpaces;
  }

  protected AST createFromElement(String path, AST alias, AST propertyFetchthrows SemanticException {
    FromElement fromElement = currentFromClause.addFromElementpath, alias );
    fromElement.setAllPropertyFetch(propertyFetch!=null);
    return fromElement;
  }

  protected AST createFromFilterElement(AST filterEntity, AST aliasthrows SemanticException {
    FromElement fromElement = currentFromClause.addFromElementfilterEntity.getText(), alias );
    FromClause fromClause = fromElement.getFromClause();
    QueryableCollection persister = sessionFactoryHelper.getCollectionPersistercollectionFilterRole );
    // Get the names of the columns used to link between the collection
    // owner and the collection elements.
    String[] keyColumnNames = persister.getKeyColumnNames();
    String fkTableAlias = persister.isOneToMany()
        ? fromElement.getTableAlias()
        : fromClause.getAliasGenerator().createNamecollectionFilterRole );
    JoinSequence join = sessionFactoryHelper.createJoinSequence();
    join.setRootpersister, fkTableAlias );
    if !persister.isOneToMany() ) {
      join.addJoin( ( AssociationType persister.getElementType(),
          fromElement.getTableAlias(),
          JoinFragment.INNER_JOIN,
          persister.getElementColumnNamesfkTableAlias ) );
    }
    join.addConditionfkTableAlias, keyColumnNames, " = ?" );
    fromElement.setJoinSequencejoin );
    fromElement.setFiltertrue );
    if log.isDebugEnabled() ) {
      log.debug"createFromFilterElement() : processed filter FROM element." );
    }
    return fromElement;
  }

  protected void createFromJoinElement(
          AST path,
          AST alias,
          int joinType,
          AST fetchNode,
          AST propertyFetch,
          AST withthrows SemanticException {
    boolean fetch = fetchNode != null;
    if fetch && isSubQuery() ) {
      throw new QueryException"fetch not allowed in subquery from-elements" );
    }
    // The path AST should be a DotNode, and it should have been evaluated already.
    if path.getType() != SqlTokenTypes.DOT ) {
      throw new SemanticException"Path expected for join!" );
    }
    DotNode dot = DotNode path;
    int hibernateJoinType = JoinProcessor.toHibernateJoinTypejoinType );
    dot.setJoinTypehibernateJoinType );  // Tell the dot node about the join type.
    dot.setFetchfetch );
    // Generate an explicit join for the root dot node.   The implied joins will be collected and passed up
    // to the root dot node.
    dot.resolvetrue, false, alias == null null : alias.getText() );
    FromElement fromElement = dot.getImpliedJoin();
    fromElement.setAllPropertyFetch(propertyFetch!=null);

    if with != null ) {
      if fetch ) {
        throw new SemanticException"with-clause not allowed on fetched associations; use filters" );
      }
      handleWithFragmentfromElement, with );
    }

    if log.isDebugEnabled() ) {
      log.debug"createFromJoinElement() : " + getASTPrinter().showAsStringfromElement, "-- join tree --" ) );
    }
  }

  private void handleWithFragment(FromElement fromElement, AST hqlWithNodethrows SemanticException {
    try {
      withClausehqlWithNode );
      AST hqlSqlWithNode = returnAST;
      if log.isDebugEnabled() ) {
        log.debug"handleWithFragment() : " + getASTPrinter().showAsStringhqlSqlWithNode, "-- with clause --" ) );
      }
      WithClauseVisitor visitor = new WithClauseVisitorfromElement );
      NodeTraverser traverser = new NodeTraverservisitor );
      traverser.traverseDepthFirsthqlSqlWithNode );

      String withClauseJoinAlias = visitor.getJoinAlias();
      if withClauseJoinAlias == null ) {
        withClauseJoinAlias = fromElement.getCollectionTableAlias();
      }
      else {
        FromElement referencedFromElement = visitor.getReferencedFromElement();
        if referencedFromElement != fromElement ) {
          throw new InvalidWithClauseException"with-clause expressions did not reference from-clause element to which the with-clause was associated" );
        }
      }

      SqlGenerator sql = new SqlGeneratorgetSessionFactoryHelper().getFactory() );
      sql.whereExprhqlSqlWithNode.getFirstChild() );

      fromElement.setWithClauseFragmentwithClauseJoinAlias, "(" + sql.getSQL() ")" );
    }
    catchSemanticException e ) {
      throw e;
    }
    catchInvalidWithClauseException e ) {
      throw e;
    }
    catch Exception e) {
      throw new SemanticExceptione.getMessage() );
    }
  }

  private static class WithClauseVisitor implements NodeTraverser.VisitationStrategy {
    private final FromElement joinFragment;
    private FromElement referencedFromElement;
    private String joinAlias;

    public WithClauseVisitor(FromElement fromElement) {
      this.joinFragment = fromElement;
    }

    public void visit(AST node) {
      // todo : currently expects that the individual with expressions apply to the same sql table join.
      //      This may not be the case for joined-subclass where the property values
      //      might be coming from different tables in the joined hierarchy.  At some
      //      point we should expand this to support that capability.  However, that has
      //      some difficulties:
      //          1) the biggest is how to handle ORs when the individual comparisons are
      //              linked to different sql joins.
      //          2) here we would need to track each comparison individually, along with
      //              the join alias to which it applies and then pass that information
      //              back to the FromElement so it can pass it along to the JoinSequence
      if node instanceof DotNode ) {
        DotNode dotNode = DotNode node;
        FromElement fromElement = dotNode.getFromElement();
        if referencedFromElement != null ) {
          if fromElement != referencedFromElement ) {
            throw new HibernateException"with-clause referenced two different from-clause elements" );
          }
        }
        else {
          referencedFromElement = fromElement;
          joinAlias = extractAppliedAliasdotNode );
          // todo : temporary
          //      needed because currently persister is the one that
          //      creates and renders the join fragments for inheritence
          //      hierarchies...
          if !joinAlias.equalsreferencedFromElement.getTableAlias() ) ) {
            throw new InvalidWithClauseException"with clause can only reference columns in the driving table" );
          }
        }
      }
      else if node instanceof ParameterNode ) {
        applyParameterSpecification( ( ( ParameterNode node ).getHqlParameterSpecification() );
      }
      else if node instanceof ParameterContainer ) {
        applyParameterSpecifications( ( ParameterContainer node );
      }
    }

    private void applyParameterSpecifications(ParameterContainer parameterContainer) {
      if parameterContainer.hasEmbeddedParameters() ) {
        ParameterSpecification[] specs = parameterContainer.getEmbeddedParameters();
        for int i = 0; i < specs.length; i++ ) {
          applyParameterSpecificationspecs[i] );
        }
      }
    }

    private void applyParameterSpecification(ParameterSpecification paramSpec) {
      joinFragment.addEmbeddedParameterparamSpec );
    }

    private String extractAppliedAlias(DotNode dotNode) {
      return dotNode.getText().substring0, dotNode.getText().indexOf'.' ) );
    }

    public FromElement getReferencedFromElement() {
      return referencedFromElement;
    }

    public String getJoinAlias() {
      return joinAlias;
    }
  }

  /**
   * Sets the current 'FROM' context.
   *
   @param fromNode      The new 'FROM' context.
   @param inputFromNode The from node from the input AST.
   */
  protected void pushFromClause(AST fromNode, AST inputFromNode) {
    FromClause newFromClause = FromClause fromNode;
    newFromClause.setParentFromClausecurrentFromClause );
    currentFromClause = newFromClause;
  }

  /**
   * Returns to the previous 'FROM' context.
   */
  private void popFromClause() {
    currentFromClause = currentFromClause.getParentFromClause();
  }

  protected void lookupAlias(AST aliasRef)
      throws SemanticException {
    FromElement alias = currentFromClause.getFromElementaliasRef.getText() );
    FromReferenceNode aliasRefNode = FromReferenceNode aliasRef;
    aliasRefNode.setFromElementalias );
  }

  protected void setImpliedJoinType(int joinType) {
    impliedJoinType = JoinProcessor.toHibernateJoinTypejoinType );
  }

  public int getImpliedJoinType() {
    return impliedJoinType;
  }

  protected AST lookupProperty(AST dot, boolean root, boolean inSelectthrows SemanticException {
    DotNode dotNode = DotNode dot;
    FromReferenceNode lhs = dotNode.getLhs();
    AST rhs = lhs.getNextSibling();
    switch rhs.getType() ) {
      case SqlTokenTypes.ELEMENTS:
      case SqlTokenTypes.INDICES:
        if log.isDebugEnabled() ) {
          log.debug"lookupProperty() " + dotNode.getPath() " => " + rhs.getText() "(" + lhs.getPath() ")" );
        }
        CollectionFunction f = CollectionFunction rhs;
        // Re-arrange the tree so that the collection function is the root and the lhs is the path.
        f.setFirstChildlhs );
        lhs.setNextSiblingnull );
        dotNode.setFirstChild);
        resolvelhs );      // Don't forget to resolve the argument!
        f.resolveinSelect );  // Resolve the collection function now.
        return f;
      default:
        // Resolve everything up to this dot, but don't resolve the placeholders yet.
        dotNode.resolveFirstChild();
        return dotNode;
    }
  }

  protected boolean isNonQualifiedPropertyRef(AST ident) {
    final String identText = ident.getText();
    if currentFromClause.isFromElementAliasidentText ) ) {
      return false;
    }

    List fromElements = currentFromClause.getExplicitFromElements();
    if fromElements.size() == ) {
      final FromElement fromElement = FromElement fromElements.get);
      try {
        log.trace"attempting to resolve property [" + identText + "] as a non-qualified ref" );
        return fromElement.getPropertyMappingidentText ).toTypeidentText != null;
      }
      catchQueryException e ) {
        // Should mean that no such property was found
      }
    }

    return false;
  }

  protected AST lookupNonQualifiedProperty(AST propertythrows SemanticException {
    final FromElement fromElement = FromElement currentFromClause.getExplicitFromElements().get);
    AST syntheticDotNode = generateSyntheticDotNodeForNonQualifiedPropertyRefproperty, fromElement );
    return lookupPropertysyntheticDotNode, false, getCurrentClauseType() == HqlSqlTokenTypes.SELECT );
  }

  private AST generateSyntheticDotNodeForNonQualifiedPropertyRef(AST property, FromElement fromElement) {
    AST dot = getASTFactory().createDOT, "{non-qualified-property-ref}" );
    // TODO : better way?!?
    ( ( DotNode dot ).setPropertyPath( ( ( FromReferenceNode property ).getPath() );

    IdentNode syntheticAlias = IdentNode getASTFactory().createIDENT, "{synthetic-alias}" );
    syntheticAlias.setFromElementfromElement );
    syntheticAlias.setResolved();

    dot.setFirstChildsyntheticAlias );
    dot.addChildproperty );

    return dot;
  }

  protected void processQuery(AST select, AST querythrows SemanticException {
    if log.isDebugEnabled() ) {
      log.debug"processQuery() : " + query.toStringTree() );
    }

    try {
      QueryNode qn = QueryNode query;

      // Was there an explicit select expression?
      boolean explicitSelect = select != null && select.getNumberOfChildren() 0;

      if !explicitSelect ) {
        // No explicit select expression; render the id and properties
        // projection lists for every persister in the from clause into
        // a single 'token node'.
        //TODO: the only reason we need this stuff now is collection filters,
        //      we should get rid of derived select clause completely!
        createSelectClauseFromFromClauseqn );
      }
      else {
        // Use the explicitly declared select expression; determine the
        // return types indicated by each select token
        useSelectClauseselect );
      }

      // After that, process the JOINs.
      // Invoke a delegate to do the work, as this is farily complex.
      JoinProcessor joinProcessor = new JoinProcessorthis );
      joinProcessor.processJoinsqn );

      // Attach any mapping-defined "ORDER BY" fragments
      Iterator itr = qn.getFromClause().getProjectionList().iterator();
      while itr.hasNext() ) {
        final FromElement fromElement = FromElement itr.next();
//      if ( fromElement.isFetch() && fromElement.isCollectionJoin() ) {
        if fromElement.isFetch() && fromElement.getQueryableCollection() != null ) {
          // Does the collection referenced by this FromElement
          // specify an order-by attribute?  If so, attach it to
          // the query's order-by
          if fromElement.getQueryableCollection().hasOrdering() ) {
            String orderByFragment = fromElement
                .getQueryableCollection()
                .getSQLOrderByStringfromElement.getCollectionTableAlias() );
            qn.getOrderByClause().addOrderFragmentorderByFragment );
          }
          if fromElement.getQueryableCollection().hasManyToManyOrdering() ) {
            String orderByFragment = fromElement.getQueryableCollection()
                .getManyToManyOrderByStringfromElement.getTableAlias() );
            qn.getOrderByClause().addOrderFragmentorderByFragment );
          }
        }
      }
    }
    finally {
      popFromClause();
    }
  }

  protected void postProcessDML(RestrictableStatement statementthrows SemanticException {
    statement.getFromClause().resolve();

    FromElement fromElement = FromElement statement.getFromClause().getFromElements().get);
    Queryable persister = fromElement.getQueryable();
    // Make #@%$^#^&# sure no alias is applied to the table name
    fromElement.setTextpersister.getTableName() );

//    // append any filter fragments; the EMPTY_MAP is used under the assumption that
//    // currently enabled filters should not affect this process
//    if ( persister.getDiscriminatorType() != null ) {
//      new SyntheticAndFactory( getASTFactory() ).addDiscriminatorWhereFragment(
//              statement,
//              persister,
//              java.util.Collections.EMPTY_MAP,
//              fromElement.getTableAlias()
//      );
//    }
    if persister.getDiscriminatorType() != null || ! queryTranslatorImpl.getEnabledFilters().isEmpty() ) {
      new SyntheticAndFactorythis ).addDiscriminatorWhereFragment(
              statement,
              persister,
              queryTranslatorImpl.getEnabledFilters(),
              fromElement.getTableAlias()
      );
    }

  }

  protected void postProcessUpdate(AST updatethrows SemanticException {
    UpdateStatement updateStatement = UpdateStatement update;

    postProcessDMLupdateStatement );
  }

  protected void postProcessDelete(AST deletethrows SemanticException {
    postProcessDML( ( DeleteStatement delete );
  }

  public static boolean supportsIdGenWithBulkInsertion(IdentifierGenerator generator) {
    return SequenceGenerator.class.isAssignableFromgenerator.getClass() )
            || PostInsertIdentifierGenerator.class.isAssignableFromgenerator.getClass() );
  }

  protected void postProcessInsert(AST insertthrows SemanticException, QueryException {
    InsertStatement insertStatement = InsertStatement insert;
    insertStatement.validate();

    SelectClause selectClause = insertStatement.getSelectClause();
    Queryable persister = insertStatement.getIntoClause().getQueryable();

    if !insertStatement.getIntoClause().isExplicitIdInsertion() ) {
      // We need to generate ids as part of this bulk insert.
      //
      // Note that this is only supported for sequence-style generators and
      // post-insert-style generators; basically, only in-db generators
      IdentifierGenerator generator = persister.getIdentifierGenerator();
      if !supportsIdGenWithBulkInsertiongenerator ) ) {
        throw new QueryException"can only generate ids as part of bulk insert with either sequence or post-insert style generators" );
      }

      AST idSelectExprNode = null;

      if SequenceGenerator.class.isAssignableFromgenerator.getClass() ) ) {
        String seqName = String ) ( ( SequenceGenerator generator ).generatorKey();
        String nextval = sessionFactoryHelper.getFactory().getDialect().getSelectSequenceNextValStringseqName );
        idSelectExprNode = getASTFactory().createHqlSqlTokenTypes.SQL_TOKEN, nextval );
      }
      else {
        //Don't need this, because we should never ever be selecting no columns in an insert ... select...
        //and because it causes a bug on DB2
        /*String idInsertString = sessionFactoryHelper.getFactory().getDialect().getIdentityInsertString();
        if ( idInsertString != null ) {
          idSelectExprNode = getASTFactory().create( HqlSqlTokenTypes.SQL_TOKEN, idInsertString );
        }*/
      }

      if idSelectExprNode != null ) {
        AST currentFirstSelectExprNode = selectClause.getFirstChild();
        selectClause.setFirstChildidSelectExprNode );
        idSelectExprNode.setNextSiblingcurrentFirstSelectExprNode );

        insertStatement.getIntoClause().prependIdColumnSpec();
      }
    }

    final boolean includeVersionProperty = persister.isVersioned() &&
        !insertStatement.getIntoClause().isExplicitVersionInsertion() &&
        persister.isVersionPropertyInsertable();
    if includeVersionProperty ) {
      // We need to seed the version value as part of this bulk insert
      VersionType versionType = persister.getVersionType();
      AST versionValueNode = null;

      if sessionFactoryHelper.getFactory().getDialect().supportsParametersInInsertSelect() ) {
        int sqlTypes[] = versionType.sqlTypessessionFactoryHelper.getFactory() );
        if sqlTypes == null || sqlTypes.length == ) {
          throw new IllegalStateExceptionversionType.getClass() ".sqlTypes() returns null or empty array" );
        }
        if sqlTypes.length > ) {
          throw new IllegalStateException(
              versionType.getClass() +
                  ".sqlTypes() returns > 1 element; only single-valued versions are allowed."
          );
        }
        versionValueNode = getASTFactory().createHqlSqlTokenTypes.PARAM, "?" );
        ParameterSpecification paramSpec = new VersionTypeSeedParameterSpecificationversionType );
        ( ( ParameterNode versionValueNode ).setHqlParameterSpecificationparamSpec );
        parameters.add0, paramSpec );

        if sessionFactoryHelper.getFactory().getDialect().requiresCastingOfParametersInSelectClause() ) {
          // we need to wrtap the param in a cast()
          MethodNode versionMethodNode = MethodNode getASTFactory().createHqlSqlTokenTypes.METHOD_CALL, "(" );
          AST methodIdentNode = getASTFactory().createHqlSqlTokenTypes.IDENT, "cast" );
          versionMethodNode.addChildmethodIdentNode );
          versionMethodNode.initializeMethodNode(methodIdentNode, true );
          AST castExprListNode = getASTFactory().createHqlSqlTokenTypes.EXPR_LIST, "exprList" );
          methodIdentNode.setNextSiblingcastExprListNode );
          castExprListNode.addChildversionValueNode );
          versionValueNode.setNextSibling(
              getASTFactory().create(
                  HqlSqlTokenTypes.IDENT,
                  sessionFactoryHelper.getFactory().getDialect().getTypeNamesqlTypes[0] ) )
          );
          processFunctionversionMethodNode, true );
          versionValueNode = versionMethodNode;
        }
      }
      else {
        if isIntegralversionType ) ) {
          try {
            Object seedValue = versionType.seednull );
            versionValueNode = getASTFactory().createHqlSqlTokenTypes.SQL_TOKEN, seedValue.toString() );
          }
          catchThrowable t ) {
            throw new QueryException"could not determine seed value for version on bulk insert [" + versionType + "]" );
          }
        }
        else if isDatabaseGeneratedTimestampversionType ) ) {
          String functionName = sessionFactoryHelper.getFactory().getDialect().getCurrentTimestampSQLFunctionName();
          versionValueNode = getASTFactory().createHqlSqlTokenTypes.SQL_TOKEN, functionName );
        }
        else {
          throw new QueryException"cannot handle version type [" + versionType + "] on bulk inserts with dialects not supporting parameters in insert-select statements" );
        }
      }

      AST currentFirstSelectExprNode = selectClause.getFirstChild();
      selectClause.setFirstChildversionValueNode );
      versionValueNode.setNextSiblingcurrentFirstSelectExprNode );

      insertStatement.getIntoClause().prependVersionColumnSpec();
    }

    if insertStatement.getIntoClause().isDiscriminated() ) {
      String sqlValue = insertStatement.getIntoClause().getQueryable().getDiscriminatorSQLValue();
      AST discrimValue = getASTFactory().createHqlSqlTokenTypes.SQL_TOKEN, sqlValue );
      insertStatement.getSelectClause().addChilddiscrimValue );
    }

  }

  private boolean isDatabaseGeneratedTimestamp(Type type) {
    // currently only the Hibernate-supplied DbTimestampType is supported here
    return DbTimestampType.class.isAssignableFromtype.getClass() );
  }

  private boolean isIntegral(Type type) {
    return Long.class.isAssignableFromtype.getReturnedClass() )
           || Integer.class.isAssignableFromtype.getReturnedClass() )
           || long.class.isAssignableFromtype.getReturnedClass() )
           || int.class.isAssignableFromtype.getReturnedClass() );
  }

  private void useSelectClause(AST selectthrows SemanticException {
    selectClause = SelectClause select;
    selectClause.initializeExplicitSelectClausecurrentFromClause );
  }

  private void createSelectClauseFromFromClause(QueryNode qnthrows SemanticException {
    AST select = astFactory.createSELECT_CLAUSE, "{derived select clause}" );
    AST sibling = qn.getFromClause();
    qn.setFirstChildselect );
    select.setNextSiblingsibling );
    selectClause = SelectClause select;
    selectClause.initializeDerivedSelectClausecurrentFromClause );
    if log.isDebugEnabled() ) {
      log.debug"Derived SELECT clause created." );
    }
  }

  protected void resolve(AST nodethrows SemanticException {
    if node != null ) {
      // This is called when it's time to fully resolve a path expression.
      ResolvableNode r = ResolvableNode node;
      if isInFunctionCall() ) {
        r.resolveInFunctionCallfalse, true );
      }
      else {
        r.resolvefalse, true );  // Generate implicit joins, only if necessary.
      }
    }
  }

  protected void resolveSelectExpression(AST nodethrows SemanticException {
    // This is called when it's time to fully resolve a path expression.
    int type = node.getType();
    switch type ) {
      case DOT:
        DotNode dot = DotNode node;
        dot.resolveSelectExpression();
        break;
      case ALIAS_REF:
        // Notify the FROM element that it is being referenced by the select.
        FromReferenceNode aliasRefNode = FromReferenceNode node;
        //aliasRefNode.resolve( false, false, aliasRefNode.getText() ); //TODO: is it kosher to do it here?
        aliasRefNode.resolvefalse, false )//TODO: is it kosher to do it here?
        FromElement fromElement = aliasRefNode.getFromElement();
        if fromElement != null ) {
          fromElement.setIncludeSubclassestrue );
        }
      default:
        break;
    }
  }

  protected void beforeSelectClause() throws SemanticException {
    // Turn off includeSubclasses on all FromElements.
    FromClause from = getCurrentFromClause();
    List fromElements = from.getFromElements();
    for Iterator iterator = fromElements.iterator(); iterator.hasNext()) {
      FromElement fromElement = FromElement iterator.next();
      fromElement.setIncludeSubclassesfalse );
    }
  }

  protected AST generatePositionalParameter(AST inputNodethrows SemanticException {
    if namedParameters.size() ) {
      throw new SemanticException"cannot define positional parameter after any named parameters have been defined" );
    }
    ParameterNode parameter = ParameterNode astFactory.createPARAM, "?" );
    PositionalParameterSpecification paramSpec = new PositionalParameterSpecification(
        inputNode.getLine(),
            inputNode.getColumn(),
        positionalParameterCount++
    );
    parameter.setHqlParameterSpecificationparamSpec );
    parameters.addparamSpec );
    return parameter;
  }

  protected AST generateNamedParameter(AST delimiterNode, AST nameNodethrows SemanticException {
    String name = nameNode.getText();
    trackNamedParameterPositionsname );

    // create the node initially with the param name so that it shows
    // appropriately in the "original text" attribute
    ParameterNode parameter = ParameterNode astFactory.createNAMED_PARAM, name );
    parameter.setText"?" );

    NamedParameterSpecification paramSpec = new NamedParameterSpecification(
        delimiterNode.getLine(),
            delimiterNode.getColumn(),
        name
    );
    parameter.setHqlParameterSpecificationparamSpec );
    parameters.addparamSpec );
    return parameter;
  }

  private void trackNamedParameterPositions(String name) {
    Integer loc = new IntegerparameterCount++ );
    Object o = namedParameters.getname );
    if o == null ) {
      namedParameters.putname, loc );
    }
    else if instanceof Integer ) {
      ArrayList list = new ArrayList);
      list.add);
      list.addloc );
      namedParameters.putname, list );
    }
    else {
      ( ( ArrayList ).addloc );
    }
  }

  protected void processConstant(AST constantthrows SemanticException {
    literalProcessor.processConstantconstant, true );  // Use the delegate, resolve identifiers as FROM element aliases.
  }

  protected void processBoolean(AST constantthrows SemanticException {
    literalProcessor.processBooleanconstant );  // Use the delegate.
  }

  protected void processNumericLiteral(AST literal) {
    literalProcessor.processNumericliteral );
  }

  protected void processIndex(AST indexOpthrows SemanticException {
    IndexNode indexNode = IndexNode indexOp;
    indexNode.resolvetrue, true );
  }

  protected void processFunction(AST functionCall, boolean inSelectthrows SemanticException {
    MethodNode methodNode = MethodNode functionCall;
    methodNode.resolveinSelect );
  }

  protected void processConstructor(AST constructorthrows SemanticException {
    ConstructorNode constructorNode = ConstructorNode constructor;
    constructorNode.prepare();
  }

    protected void setAlias(AST selectExpr, AST ident) {
        ((SelectExpressionselectExpr).setAlias(ident.getText());
    }

  /**
   * Returns the locations of all occurrences of the named parameter.
   */
  public int[] getNamedParameterLocations(String namethrows QueryException {
    Object o = namedParameters.getname );
    if o == null ) {
      QueryException qe = new QueryExceptionQueryTranslator.ERROR_NAMED_PARAMETER_DOES_NOT_APPEAR + name );
      qe.setQueryStringqueryTranslatorImpl.getQueryString() );
      throw qe;
    }
    if instanceof Integer ) {
      return new int[]{( ( Integer ).intValue()};
    }
    else {
      return ArrayHelper.toIntArray( ( ArrayList );
    }
  }

  public void addQuerySpaces(Serializable[] spaces) {
    querySpaces.addAllArrays.asListspaces ) );
  }

  public Type[] getReturnTypes() {
    return selectClause.getQueryReturnTypes();
  }

  public String[] getReturnAliases() {
    return selectClause.getQueryReturnAliases();
  }

  public SelectClause getSelectClause() {
    return selectClause;
  }
  
  public FromClause getFinalFromClause() {
    FromClause top = currentFromClause;
    while top.getParentFromClause() != null ) {
      top = top.getParentFromClause();
    }
    return top;
  }

  public boolean isShallowQuery() {
    // select clauses for insert statements should alwasy be treated as shallow
    return getStatementType() == INSERT || queryTranslatorImpl.isShallowQuery();
  }

  public Map getEnabledFilters() {
    return queryTranslatorImpl.getEnabledFilters();
  }

  public LiteralProcessor getLiteralProcessor() {
    return literalProcessor;
  }

  public ASTPrinter getASTPrinter() {
    return printer;
  }

  public ArrayList getParameters() {
    return parameters;
  }

  public int getNumberOfParametersInSetClause() {
    return numberOfParametersInSetClause;
  }

  protected void evaluateAssignment(AST eqthrows SemanticException {
    prepareLogicOperatoreq );
    Queryable persister = getCurrentFromClause().getFromElement().getQueryable();
    evaluateAssignmenteq, persister, -);
  }

  private void evaluateAssignment(AST eq, Queryable persister, int targetIndex) {
    if persister.isMultiTable() ) {
      // no need to even collect this information if the persister is considered multi-table
      AssignmentSpecification specification = new AssignmentSpecificationeq, persister );
      if targetIndex >= ) {
        assignmentSpecifications.addtargetIndex, specification );
      }
      else {
        assignmentSpecifications.addspecification );
      }
      numberOfParametersInSetClause += specification.getParameters().length;
    }
  }

  public ArrayList getAssignmentSpecifications() {
    return assignmentSpecifications;
  }

  protected AST createIntoClause(String path, AST propertySpecthrows SemanticException {
    Queryable persister = Queryable getSessionFactoryHelper().requireClassPersisterpath );

    IntoClause intoClause = IntoClause getASTFactory().createINTO, persister.getEntityName() );
    intoClause.setFirstChildpropertySpec );
    intoClause.initializepersister );

    addQuerySpacespersister.getQuerySpaces() );

    return intoClause;
  }

  protected void prepareVersioned(AST updateNode, AST versionedthrows SemanticException {
    UpdateStatement updateStatement = UpdateStatement updateNode;
    FromClause fromClause = updateStatement.getFromClause();
    if versioned != null ) {
      // Make sure that the persister is versioned
      Queryable persister = fromClause.getFromElement().getQueryable();
      if !persister.isVersioned() ) {
        throw new SemanticException"increment option specified for update of non-versioned entity" );
      }

      VersionType versionType = persister.getVersionType();
      if versionType instanceof UserVersionType ) {
        throw new SemanticException"user-defined version types not supported for increment option" );
      }

      AST eq = getASTFactory().createHqlSqlTokenTypes.EQ, "=" );
      AST versionPropertyNode = generateVersionPropertyNodepersister );

      eq.setFirstChildversionPropertyNode );

      AST versionIncrementNode = null;
      if Date.class.isAssignableFromversionType.getReturnedClass() ) ) {
        versionIncrementNode = getASTFactory().createHqlSqlTokenTypes.PARAM, "?" );
        ParameterSpecification paramSpec = new VersionTypeSeedParameterSpecificationversionType );
        ( ( ParameterNode versionIncrementNode ).setHqlParameterSpecificationparamSpec );
        parameters.add0, paramSpec );
      }
      else {
        // Not possible to simply re-use the versionPropertyNode here as it causes
        // OOM errors due to circularity :(
        versionIncrementNode = getASTFactory().createHqlSqlTokenTypes.PLUS, "+" );
        versionIncrementNode.setFirstChildgenerateVersionPropertyNodepersister ) );
        versionIncrementNode.addChildgetASTFactory().createHqlSqlTokenTypes.IDENT, "1" ) );
      }

      eq.addChildversionIncrementNode );

      evaluateAssignmenteq, persister, );

      AST setClause = updateStatement.getSetClause();
      AST currentFirstSetElement = setClause.getFirstChild();
      setClause.setFirstChildeq );
      eq.setNextSiblingcurrentFirstSetElement );
    }
  }

  private AST generateVersionPropertyNode(Queryable persisterthrows SemanticException {
    String versionPropertyName = persister.getPropertyNames()[ persister.getVersionProperty() ];
    AST versionPropertyRef = getASTFactory().createHqlSqlTokenTypes.IDENT, versionPropertyName );
    AST versionPropertyNode = lookupNonQualifiedPropertyversionPropertyRef );
    resolveversionPropertyNode );
    return versionPropertyNode;
  }

  protected void prepareLogicOperator(AST operatorthrows SemanticException {
    ( ( OperatorNode operator ).initialize();
  }

  protected void prepareArithmeticOperator(AST operatorthrows SemanticException {
    ( ( OperatorNode operator ).initialize();
  }

  public static void panic() {
    throw new QueryException"TreeWalker: panic" );
  }
}