Open Source Repository

Home /csv/supercsv-1.52 | Repository Home



org/supercsv/cellprocessor/constraint/UniqueHashCode.java
package org.supercsv.cellprocessor.constraint;

import java.util.HashSet;

import org.supercsv.cellprocessor.CellProcessorAdaptor;
import org.supercsv.cellprocessor.ift.CellProcessor;
import org.supercsv.exception.NullInputException;
import org.supercsv.exception.SuperCSVException;
import org.supercsv.util.CSVContext;

/**
 * Ensure that upon processing a CSV file (reading or writing), that values of the column are all unique. Comparison is
 * based upon each elements <tt>hashCode()</tt> method of the objects and lookup takes O(1).
 <p>
 * Compared to {@link Unique} this processor is much more memory efficient as it only stores the set of encounted
 * hashcodes rather than storing references to all encountered objects. The tradeoff being possible false possitives.
 <p>
 * Prior to v1.50 this class was named <tt>Unique</tt> but has been renamed to explicate its inner workings.
 
 @author Kasper B. Graversen
 @author Dominique De Vito
 */
public class UniqueHashCode extends CellProcessorAdaptor {
protected HashSet<Integer> uniqueSet = new HashSet<Integer>();

public UniqueHashCode() {
  super();
}

public UniqueHashCode(final CellProcessor next) {
  super(next);
}

/**
 * {@inheritDoc}
 
 @throws SuperCSVException
 *             upon detecting a duplicate entry
 @return the argument value if the value is unique
 */
@Override
public Object execute(final Object value, final CSVContext contextthrows SuperCSVException {
  ifvalue == null ) { throw new NullInputException("Input cannot be null on line " + context.lineNumber
    " at column " + context.columnNumber, context, this)}
  
  // check for uniqueness
  final int hash = value.hashCode();
  ifuniqueSet.contains(hash) ) { throw new SuperCSVException("Duplicate entry \"" + value
    "\" found with same hash code!", context, this)}
  
  // if not found add it
  uniqueSet.add(hash);
  
  // chaining
  return next.execute(value, context);
}
}