Hibernate.orgCommunity Documentation

HIBERNATE - Persistência Relacional para Java Idiomático

Documentação de Referência Hibernate

3.5.6-Final

Legal Notice

September 15, 2010


Prefácio
1. Tutorial
1.1. Parte 1 – A primeira aplicação Hibernate
1.1.1. Configuração
1.1.2. A primeira Classe
1.1.3. O mapeamento do arquivo
1.1.4. Configuração do Hibernate
1.1.5. Construindo com o Maven
1.1.6. Inicialização e Auxiliares
1.1.7. Carregando e salvando objetos
1.2. Parte 2 - Mapeando associações
1.2.1. Mapeando a classe Person
1.2.2. Uma associação unidirecional baseada em Configuração
1.2.3. Trabalhando a associação
1.2.4. Coleção de valores
1.2.5. Associações bidirecionais
1.2.6. Trabalhando com links bidirecionais
1.3. EventManager um aplicativo da web
1.3.1. Criando um servlet básico
1.3.2. Processando e renderizando
1.3.3. Implementando e testando
1.4. Sumário
2. Arquitetura
2.1. Visão Geral
2.2. Estados de instância
2.3. Integração JMX
2.4. Suporte JCA
2.5. Sessões Contextuais
3. Configuration
3.1. Configuração programática
3.2. Obtendo uma SessionFactory
3.3. Conexões JDBC
3.4. Propriedades opcionais de configuração
3.4.1. Dialetos SQL
3.4.2. Busca por união externa (Outer Join Fetching)
3.4.3. Fluxos Binários (Binary Streams)
3.4.4. Cachê de segundo nível e consulta
3.4.5. Substituição na Linguagem de Consulta
3.4.6. Estatísticas do Hibernate
3.5. Logging
3.6. Implementando um NamingStrategy
3.7. Arquivo de configuração XML
3.8. Integração com servidores de aplicação J2EE
3.8.1. Configuração de estratégia de transação
3.8.2. SessionFactory vinculada à JNDI
3.8.3. Gerenciamento de contexto de Sessão atual com JTA
3.8.4. implementação JMX
4. Classes Persistentes
4.1. Um exemplo simples de POJO
4.1.1. Implemente um construtor de não argumento
4.1.2. Providencie uma propriedade de identificador (opcional)
4.1.3. Prefira classes não finais (opcional)
4.1.4. Declare acessores e mutadores para campos persistentes (opcional)
4.2. Implementando herança
4.3. Implementando equals() e hashCode()
4.4. Modelos dinâmicos
4.5. Tuplizadores
4.6. EntityNameResolvers
5. Mapeamento O/R Básico
5.1. Declaração de mapeamento
5.1.1. Doctype
5.1.2. Mapeamento do Hibernate
5.1.3. Classe
5.1.4. id
5.1.5. Aprimoração dos geradores de identificador
5.1.6. Otimização do Gerador de Identificação
5.1.7. Composição-id
5.1.8. Discriminador
5.1.9. Versão (opcional)
5.1.10. Timestamp (opcional)
5.1.11. Propriedade
5.1.12. Muitos-para-um
5.1.13. Um-para-um
5.1.14. Id Natural
5.1.15. Componente e componente dinâmico
5.1.16. Propriedades
5.1.17. Subclass
5.1.18. Subclasses Unidas
5.1.19. Subclasse de União
5.1.20. União
5.1.21. Key
5.1.22. Elementos coluna e fórmula
5.1.23. Importar
5.1.24. Any
5.2. Tipos do Hibernate
5.2.1. Entidades e valores
5.2.2. Valores de tipos básicos
5.2.3. Tipos de valores personalizados
5.3. Mapeando uma classe mais de uma vez
5.4. Identificadores quotados do SQL
5.5. Alternativas de Metadados
5.5.1. Usando a marcação XDoclet.
5.5.2. Usando as anotações JDK 5.0
5.6. Propriedades geradas
5.7. Coluna de expressöes de gravação e leitura
5.8. Objetos de Banco de Dados Auxiliares
6. Mapeamento de coleção
6.1. Coleções persistentes
6.2. Mapeamento de coleção
6.2.1. Chaves Externas de Coleção
6.2.2. Elementos de coleção
6.2.3. Coleções indexadas
6.2.4. Coleções de valores e associações muitos-para-muitos
6.2.5. Associações um-para-muitos
6.3. Mapeamentos de coleção avançados.
6.3.1. Coleções escolhidas
6.3.2. Associações Bidirecionais
6.3.3. Associações bidirecionais com coleções indexadas
6.3.4. Associações Ternárias
6.3.5. Using an <idbag>
6.4. Exemplos de coleções
7. Mapeamento de associações
7.1. Introdução
7.2. Associações Unidirecionais
7.2.1. Muitos-para-um
7.2.2. Um-para-um
7.2.3. Um-para-muitos
7.3. Associações Unidirecionais com tabelas associativas
7.3.1. Um-para-muitos
7.3.2. Muitos-para-um
7.3.3. Um-para-um
7.3.4. Muitos-para-muitos
7.4. Associações Bidirecionais
7.4.1. Um-para-muitos/muitos-para-um
7.4.2. Um-para-um
7.5. Associações Bidirecionais com tabelas associativas
7.5.1. Um-para-muitos/muitos-para-um
7.5.2. Um para um
7.5.3. Muitos-para-muitos
7.6. Mapeamento de associações mais complexas
8. Mapeamento de Componentes
8.1. Objetos dependentes
8.2. Coleções de objetos dependentes
8.3. Componentes como índices de Map
8.4. Componentes como identificadores compostos
8.5. Componentes Dinâmicos
9. Mapeamento de Herança
9.1. As três estratégias
9.1.1. Tabela por hierarquia de classes
9.1.2. Tabela por subclasse
9.1.3. Tabela por subclasse: usando um discriminador
9.1.4. Mesclar tabela por hierarquia de classes com tabela por subclasse
9.1.5. Tabela por classe concreta
9.1.6. Tabela por classe concreta usando polimorfismo implícito
9.1.7. Mesclando polimorfismo implícito com outros mapeamentos de herança
9.2. Limitações
10. Trabalhando com objetos
10.1. Estado dos objetos no Hibernate
10.2. Tornando os objetos persistentes
10.3. Carregando o objeto
10.4. Consultando
10.4.1. Executando consultas
10.4.2. Filtrando coleções
10.4.3. Consulta por critério
10.4.4. Consultas em SQL nativa
10.5. Modificando objetos persistentes
10.6. Modificando objetos desacoplados
10.7. Detecção automática de estado
10.8. Apagando objetos persistentes
10.9. Replicando objeto entre dois armazenamentos de dados diferentes.
10.10. Limpando a Sessão
10.11. Persistência Transitiva
10.12. Usando metadados
11. Read-only entities
11.1. Making persistent entities read-only
11.1.1. Entities of immutable classes
11.1.2. Loading persistent entities as read-only
11.1.3. Loading read-only entities from an HQL query/criteria
11.1.4. Making a persistent entity read-only
11.2. Read-only affect on property type
11.2.1. Simple properties
11.2.2. Unidirectional associations
11.2.3. Bidirectional associations
12. Transações e Concorrência
12.1. Sessão e escopos de transações
12.1.1. Unidade de trabalho
12.1.2. Longas conversações
12.1.3. Considerando a identidade do objeto
12.1.4. Edições comuns
12.2. Demarcação de transações de bancos de dados
12.2.1. Ambiente não gerenciado
12.2.2. Usando JTA
12.2.3. Tratamento de Exceção
12.2.4. Tempo de espera de Transação
12.3. Controle de concorrência otimista
12.3.1. Checagem de versão da aplicação
12.3.2. Sessão estendida e versionamento automático
12.3.3. Objetos destacados e versionamento automático
12.3.4. Versionamento automático customizado
12.4. Bloqueio Pessimista
12.5. Modos para liberar a conexão
13. Interceptadores e Eventos
13.1. Interceptadores
13.2. Sistema de Eventos
13.3. Segurança declarativa do Hibernate
14. Batch processing
14.1. Inserção em lotes
14.2. Atualização em lotes
14.3. A interface de Sessão sem Estado
14.4. Operações no estilo DML
15. HQL: A Linguagem de Consultas do Hibernate
15.1. Diferenciação de maiúscula e minúscula
15.2. A cláusula from
15.3. Associações e uniões
15.4. Formas de sintáxe de uniões
15.5. Referência à propriedade do identificador
15.6. A cláusula select
15.7. Funções de agregação
15.8. Pesquisas Polimórficas
15.9. A cláusula where
15.10. Expressões
15.11. A cláusula ordenar por
15.12. A cláusula agrupar por
15.13. Subconsultas
15.14. Exemplos de HQL
15.15. Atualização e correção em lote
15.16. Dicas & Truques
15.17. Componentes
15.18. Sintáxe do construtor de valores de linha
16. Consultas por critérios
16.1. Criando uma instância Criteria
16.2. Limitando o conjunto de resultados
16.3. Ordenando resultados
16.4. Associações
16.5. Busca de associação dinâmica
16.6. Exemplos de consultas
16.7. Projeções, agregações e agrupamento.
16.8. Consultas e subconsultas desanexadas.
16.9. Consultas por um identificador natural
17. SQL Nativo
17.1. Usando um SQLQuery
17.1.1. Consultas Escalares
17.1.2. Consultas de Entidade
17.1.3. Manuseio de associações e coleções
17.1.4. Retorno de entidades múltiplas
17.1.5. Retorno de entidades não gerenciadas
17.1.6. Manuseio de herança
17.1.7. Parâmetros
17.2. Consultas SQL Nomeadas
17.2.1. Utilizando a propriedade retorno para especificar explicitamente os nomes de colunas/alias
17.2.2. Usando procedimentos de armazenamento para consultas
17.3. SQL padronizado para criar, atualizar e deletar
17.4. SQL padronizado para carga
18. Filtrando dados
18.1. Filtros do Hibernate
19. Mapeamento XML
19.1. Trabalhando com dados em XML
19.1.1. Especificando o mapeamento de uma classe e de um arquivo XML simultaneamente
19.1.2. Especificando somente um mapeamento XML
19.2. Mapeando metadados com XML
19.3. Manipulando dados em XML
20. Aumentando o desempenho
20.1. Estratégias de Busca
20.1.1. Trabalhando com associações preguiçosas (lazy)
20.1.2. Personalizando as estratégias de busca
20.1.3. Proxies de associação final único
20.1.4. Inicializando coleções e proxies
20.1.5. Usando busca em lote
20.1.6. Usando busca de subseleção
20.1.7. Perfis de Busca
20.1.8. Usando busca preguiçosa de propriedade
20.2. O Cachê de Segundo Nível
20.2.1. Mapeamento de Cache
20.2.2. Estratégia: somente leitura
20.2.3. Estratégia: leitura/escrita
20.2.4. Estratégia: leitura/escrita não estrita
20.2.5. Estratégia: transacional
20.2.6. Compatibilidade de Estratégia de Concorrência de Cache Provedor
20.3. Gerenciando os caches
20.4. O Cache de Consulta
20.4.1. Ativação do cache de consulta
20.4.2. Regiões de cache de consulta
20.5. Entendendo o desempenho da Coleção
20.5.1. Taxonomia
20.5.2. Listas, mapas, bags de id e conjuntos são coleções mais eficientes para atualizar
20.5.3. As Bags e listas são as coleções de inversão mais eficientes.
20.5.4. Deletar uma vez
20.6. Monitorando desempenho
20.6.1. Monitorando uma SessionFactory
20.6.2. Métricas
21. Guia de Toolset
21.1. Geração de esquema automático
21.1.1. Padronizando o esquema
21.1.2. Executando a ferramenta
21.1.3. Propriedades
21.1.4. Usando o Ant
21.1.5. Atualizações de esquema incremental
21.1.6. Utilizando Ant para atualizações de esquema incremental
21.1.7. Validação de esquema
21.1.8. Utilizando Ant para validação de esquema
22. Exemplo: Pai/Filho
22.1. Uma nota sobre as coleções
22.2. Bidirecional um-para-muitos
22.3. Ciclo de vida em Cascata
22.4. Cascatas e unsaved-value
22.5. Conclusão
23. Exemplo: Aplicativo Weblog
23.1. Classes Persistentes
23.2. Mapeamentos Hibernate
23.3. Código Hibernate
24. Exemplo: Vários Mapeamentos
24.1. Empregador/Empregado
24.2. Autor/Trabalho
24.3. Cliente/Ordem/Produto
24.4. Exemplos variados de mapeamento
24.4.1. Associação um-para-um "Typed"
24.4.2. Exemplo de chave composta
24.4.3. Muitos-para-muitos com função de chave composta compartilhada
24.4.4. Conteúdo baseado em discriminação
24.4.5. Associações em chaves alternativas
25. Melhores práticas
26. Considerações da Portabilidade do Banco de Dados
26.1. Fundamentos da Portabilidade
26.2. Dialeto
26.3. Resolução do Dialeto
26.4. Geração do identificador
26.5. Funções do banco de dados
26.6. Tipos de mapeamentos
Referências

O trabalho com o software objeto relacional e banco de dados relacionais, pode ser incômodo e desgastante atualmente num meio empresarial. Hibernate é um Objeto/Relacional de Mapeamento de ferramentas nos meios Java. O termo Objeto/Relacional de Mapeamento (ORM) refere-se à técnica de mapeamento de dados, representada desde o objeto modelo aos dados relacionais modelo com um esquema baseado na SQL.

O Hibernate não cuida apenas do mapeamento desde às classes de Java até as mesas de banco de dados (e de tipos de dados Java até tipos de dados da SQL), mas também proporciona a consulta de dados e facildades de recuperação que pode significativamente reduzir o tempo de desenvolvimento. Do contrário, consumido com o manual de dados executados em SQL e JDBC.

A meta de Hibernate é aliviar o desenvolvedor em 95% de dados comuns de persistência relacionados as tarefas de programação. O Hibernate talvez não seja a melhor solução para as aplicações centradas em dados, das quais apenas usam procedimentos armazenados para a implementação das lógicas comerciais no banco de dados. Isto é mais utilizado orientando o objeto aos modelos de domínio e lógicas comerciais na camada intermediária baseada em Java. No entanto, o Hibernate pode certamente ajudá-lo a remover ou condensar o específico código fornecedor SQL, e ajudará com a tarefa comum de resultado estabelecido pela tradução desde a representação tabular até um gráfico de objetos.

Por favor siga os seguintes passos, caso você seja inexperiente com o Hibernate, Mapeamento Objeto/Relacional ou mesmo Java:

  1. Read Capítulo 1, Tutorial for a tutorial with step-by-step instructions. The source code for the tutorial is included in the distribution in the doc/reference/tutorial/ directory.

  2. Read Capítulo 2, Arquitetura to understand the environments where Hibernate can be used.

  3. Verifique no diretório eg/ em sua distribuição de Hibernate, do qual possui uma simples aplicação autônoma. Copie seu driver JDBC para o diretório lib/ e edite eg/hibernate.properties, especificando valores corretos para o seu banco de dados. No diretório de distribuição sob o comando aviso, digite ant eg (usando Ant), ou sob Windows, digite build eg.

  4. Use this reference documentation as your primary source of information. Consider reading [JPwH] if you need more help with application design, or if you prefer a step-by-step tutorial. Also visit http://caveatemptor.hibernate.org and download the example application from [JPwH].

  5. As respostas das perguntas mais freqüentes podem ser encontradas no website Hibernate.

  6. A terceira parte de demonstração, exemplos e tutoriais estão vinculadas no website Hibernate.

  7. A Área de Comunidade no website Hibernate é um bom recurso para parceiros de design e várias soluções integradas. ( Tomcat, JBoss AS, Struts, EJB, etc. )

Em caso de dúvidas, utilize o fórum do usuário encontrado no website Hibernate. Nós também provemos o JIRA sistema de questão de rastreamento para os relatórios de erros de programação e recursos solicitados. Se você tem interesse no desenvolvimento do Hibernate, participe da lista de correio eletrônico do desenvolvedor. Caso você tenha interesse em traduzir este documento na sua própria língua, por favor entre em contato conosco através da lista de correio eletrônico do desenvolvedor.

O suporte do desenvolvimento comercial, suporte de produção e treinamento de Hibernate está disponível através do JBoss Inc. ( see http://www.hibernate.org/SupportTraining/ ). Hibernate é um projeto de Fonte Aberta Profissional e componente crítico do Sistema Jboss de Empreendimento e Middleware ( JEMS ) suíte de produtos.

Intencionado para novos usuários, este capítulo fornece uma introdução detalhada do Hibernate, começando com um aplicativo simples usando um banco de dados em memória. O tutorial é baseado num tutorial anterior desenvolvido por Michael Gloegl. Todo o código está contido no diretório tutorials/web da fonte do projeto.

Importante

Este tutorial espera que o usuário tenha conhecimento de ambos Java e SQL. Caso você tenha um conhecimento limitado do JAVA ou SQL, é recomendado que você inicie com uma boa introdução àquela tecnologia, antes de tentar entender o Hibernate.

Nota

Esta distribuição contém outro aplicativo de amostra sob o diretório de fonte do projeto tutorial/eg.

Vamos supor que precisemos de uma aplicação com um banco de dados pequeno que possa armazenar e atender os eventos que queremos, além das informações sobre os hosts destes eventos.

Nota

Mesmo que usando qualquer banco de dados do qual você se sinta confortável, nós usaremos HSQLDB (o em memória, banco de dados Java) para evitar a descrição de instalação/configuração de quaisquer servidores do banco de dados.

O primeiro passo em que precisamos tomar é configurar o ambiente de desenvolvimento. Nós usaremos o "layout padrão" suportado por muitas ferramentas de construção, tais como Maven. Maven, em particular, possui um excelente recurso de descrição disto layout. Assim como este tutorial deve ser um aplicativo da web, nós criaremos e faremos uso dos diretórios src/main/java, src/main/resources e src/main/webapp.

Nós usaremos Maven neste tutorial, tirando vantagem destas capacidades de dependência transitiva assim como a habilidade de muitos IDEs de configurar automaticamente um projeto baseado no descritor maven.


<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">

    <modelVersion
>4.0.0</modelVersion>

    <groupId
>org.hibernate.tutorials</groupId>
    <artifactId
>hibernate-tutorial</artifactId>
    <version
>1.0.0-SNAPSHOT</version>
    <name
>First Hibernate Tutorial</name>

    <build>
         <!-- we dont want the version to be part of the generated war file name -->
         <finalName
>${artifactId}</finalName>
    </build>

    <dependencies>
        <dependency>
            <groupId
>org.hibernate</groupId>
            <artifactId
>hibernate-core</artifactId>
        </dependency>

        <!-- Because this is a web app, we also have a dependency on the servlet api. -->
        <dependency>
            <groupId
>javax.servlet</groupId>
            <artifactId
>servlet-api</artifactId>
        </dependency>

        <!-- Hibernate uses slf4j for logging, for our purposes here use the simple backend -->
        <dependency>
            <groupId
>org.slf4j</groupId>
            <artifactId
>slf4j-simple</artifactId>
        </dependency>

        <!-- Hibernate gives you a choice of bytecode providers between cglib and javassist -->
        <dependency>
            <groupId
>javassist</groupId>
            <artifactId
>javassist</artifactId>
        </dependency>
    </dependencies>

</project
>

Dica

It is not a requirement to use Maven. If you wish to use something else to build this tutorial (such as Ant), the layout will remain the same. The only change is that you will need to manually account for all the needed dependencies. If you use something like Ivy providing transitive dependency management you would still use the dependencies mentioned below. Otherwise, you'd need to grab all dependencies, both explicit and transitive, and add them to the project's classpath. If working from the Hibernate distribution bundle, this would mean hibernate3.jar, all artifacts in the lib/required directory and all files from either the lib/bytecode/cglib or lib/bytecode/javassist directory; additionally you will need both the servlet-api jar and one of the slf4j logging backends.

Salve este arquivo como pom.xml no diretório raiz do projeto.

Agora, iremos criar uma classe que representa o evento que queremos armazenar na base de dados. Isto é uma classe JavaBean simples com algumas propriedades:

package org.hibernate.tutorial.domain;


import java.util.Date;
public class Event {
    private Long id;
    private String title;
    private Date date;
    public Event() {}
    public Long getId() {
        return id;
    }
    private void setId(Long id) {
        this.id = id;
    }
    public Date getDate() {
        return date;
    }
    public void setDate(Date date) {
        this.date = date;
    }
    public String getTitle() {
        return title;
    }
    public void setTitle(String title) {
        this.title = title;
    }
}

Você pode ver que esta classe usa o padrão JavaBean para o nome convencional dos métodos de propriedade getter e setter, como também a visibilidade privada dos campos. Este é um padrão de projeto recomendado, mas não requerido. O Hibernate pode também acessar campos diretamente, o benefício para os métodos de acesso é a robustez para o refactoring.

A propriedade id mantém um único valor de identificação para um evento particular. Todas as classes persistentes da entidade (bem como aquelas classes dependentes de menos importância) precisam de uma propriedade de identificação, caso nós queiramos usar o conjunto completo de características do Hibernate. De fato, a maioria das aplicações, especialmente. aplicações web, precisam distinguir os objetos pelo identificador. Portanto, você deverá considerar esta, uma característica ao invés de uma limitação. Porém, nós normalmente não manipulamos a identidade de um objeto, conseqüentemente o método setter deverá ser privado. O Hibernate somente nomeará os identificadores quando um objeto for salvo. O Hibernate pode acessar métodos públicos, privados, e protegidos, como também campos públicos, privados, protegidos diretamente. A escolha é sua e você pode adaptar seu projeto de aplicação.

O construtor sem argumentos é um requerimento para todas as classes persistentes; O Hibernate precisa criar para você os objetos usando Java Reflection. O construtor pode ser privado, porém, a visibilidade do pacote é requerida para a procuração da geração em tempo de execução e recuperação eficiente dos dados sem a instrumentação de bytecode.

Salve este arquivo no diretório src/main/java/org/hibernate/tutorial/domain.

O Hibernate precisa saber como carregar e armazenar objetos da classe de persistência. É aqui que o mapeamento do arquivo do Hibernate entrará em jogo. O arquivo mapeado informa ao Hibernate, qual tabela no banco de dados ele deverá acessar, e quais as colunas na tabela ele deverá usar.

A estrutura básica de um arquivo de mapeamento é parecida com:


<?xml version="1.0"?>
<!DOCTYPE hibernate-mapping PUBLIC
        "-//Hibernate/Hibernate Mapping DTD 3.0//EN"
        "http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd">

<hibernate-mapping package="org.hibernate.tutorial.domain">
[...]
</hibernate-mapping
>

Note que o Hibernate DTD é muito sofisticado. Você pode usar isso para auto-conclusão no mapeamento XML dos elementos e funções no seu editor ou IDE. Você também pode abrir o arquivo DTD no seu editor. Esta é a maneira mais fácil de ter uma visão geral de todos os elementos e funções e dos padrões, como também alguns comentários. Note que o Hibernate não irá carregar o arquivo DTD da web, e sim da classpath da aplicação. O arquivo DTD está incluído no hibernate-core.jar (como também no hibernate3.jar, caso usando a vinculação de distribuição.

Entre as duas tags hibernate-mapping, inclua um elemento class. Todas as classes persistentes da entidade (novamente, poderá haver mais tarde, dependências sobre as classes que não são classes-primárias de entidades) necessitam do tal mapeamento, para uma tabela na base de dados SQL:


<hibernate-mapping package="org.hibernate.tutorial.domain">

    <class name="Event" table="EVENTS">

    </class>

</hibernate-mapping
>

Até agora, informamos o Hibernate sobre como fazer para persistir e carregar objetos da classe Event da tabela EVENTS, cada instância representada por uma coluna na tabela. Agora, continuaremos com o mapeamento de uma única propriedade identificadora para as chaves primárias da tabela. Além disso, como não precisamos nos preocupar em manipular este identificador, iremos configurar uma estratégia de geração de id’s do Hibernate para uma coluna de chave primária substituta:


<hibernate-mapping package="org.hibernate.tutorial.domain">

    <class name="Event" table="EVENTS">
        <id name="id" column="EVENT_ID">
            <generator class="native"/>
        </id>
    </class>

</hibernate-mapping
>

O elemento id é a declaração de uma propriedade do identificador. O atributo do mapeamento name="id" declara que o nome da propriedade JavaBeans e informa o Hibernate a utilizar os métodos getId() and setId() para acessar a propriedade. A atributo da coluna informa o Hibernate qual coluna da tabela EVENTS mantém o valor de chave primária.

O elemento generator aninhado especifica a estratégia da geração do identificador (como os valores do identificador são gerados?). Neste caso, nós escolhemos native, do qual oferece um nível de portabilidade dependendo no dialeto do banco de dados configurado. O Hibernate suporta o banco de dados gerado, globalmente único, assim como a aplicação determinada, identificadores. A geração do valor do identificador é também um dos muitos pontos de extensão do Hibernate e você pode realizar o plugin na sua própria estratégia.

Finalmente, incluiremos as declarações para as propriedades persistentes da classe no arquivo mapeado. Por padrão, nenhuma das propriedades da classe é considerada persistente:



<hibernate-mapping package="org.hibernate.tutorial.domain">

    <class name="Event" table="EVENTS">
        <id name="id" column="EVENT_ID">
            <generator class="native"/>
        </id>
        <property name="date" type="timestamp" column="EVENT_DATE"/>
        <property name="title"/>
    </class>

</hibernate-mapping
>

Assim como com o elemento id, a função name do elemento property informa ao Hibernate qual método getter e setter deverá usar. Assim, neste caso, o Hibernate irá procurar pelos métodos getDate(), setDate(), getTitle() e setTitle().

Nota

Porque fazer o mapeamento da propriedade date incluído na função column, e no title não fazer? Sem a função column o Hibernate, por padrão, utiliza o nome da propriedade como o nome da coluna. Isto funciona bem para o title. Entretanto, o date é uma palavra-chave reservada na maioria dos bancos de dados, por isso seria melhor mapeá-lo com um nome diferente.

O mapeamento do title também não possui a função type. O tipo que declaramos e utilizamos nos arquivos mapeados, não são como você esperava, ou seja, funções de dados Java. Eles também não são como os tipos de base de dados SQL. Esses tipos podem ser chamados de Tipos de mapeamento Hibernate, que são conversores que podem traduzir tipos de dados do Java para os tipos de dados SQL e vice-versa. Novamente, o Hibernate irá tentar determinar a conversão correta e mapeará o type próprio, caso o tipo da função não estiver presente no mapeamento. Em alguns casos, esta detecção automática (que usa Reflection sobre as classes Java) poderá não ter o padrão que você espera ou necessita. Este é o caso com a propriedade date. O Hibernate não sabe se a propriedade, que é do java.util.Date, pode mapear para uma coluna do tipo date do SQL, timestamp ou time. Nós preservamos as informações sobre datas e horas pelo mapeamento da propriedade com um conversor timestamp.

Dica

O Hibernate realiza esta determinação de tipo de mapeamento usando a reflexão quando os arquivos de mapeamentos são processados. Isto pode levar tempo e recursos, portanto se você inicializar o desempenho, será importante que você considere claramente a definição do tipo para uso.

Salve este arquivo de mapeamento como src/main/resources/org/hibernate/tutorial/domain/Event.hbm.xml.

Nestas alturas, você deve possuir a classe persistente e seu arquivo de mapeamento prontos. É o momento de configurar o Hibernate. Primeiro, vamos configurar o HSQLDB para rodar no "modo do servidor".

Nós utilizaremos o Maven exec plugin para lançar o servidor HSQLDB pela execução: mvn exec:java -Dexec.mainClass="org.hsqldb.Server" -Dexec.args="-database.0 file:target/data/tutorial". Você pode ver ele iniciando e vinculando ao soquete TCP/IP, aqui será onde nossa aplicação irá se conectar depois. Se você deseja iniciar uma nova base de dados durante este tutorial, finalize o HSQLDB, delete todos os arquivos no diretório target/data, e inicie o HSQLBD novamente.

O Hibernate conectará ao banco de dados no lugar de sua aplicação, portanto ele precisará saber como obter as conexões. Para este tutorial nós usaremos um pool de conexão autônomo (ao invés de javax.sql.DataSource). O Hibernate vem com o suporte para dois terços dos pools de conexão JDBC de código aberto: c3p0 e proxool. No entanto, nós usaremos o pool de conexão interna do Hibernate para este tutorial.

Cuidado

O pool de conexão interna do Hibernate não é recomendado para uso de produção. Ele possui deficiência em diversos recursos encontrados em qualquer pool de conexão apropriado.

Para as configurações do Hibernate, nós podemos usar um arquivo simples hibernate.properties, um arquivo mais sofisticado hibernate.cfg.xml ou até mesmo uma instalação programática completa. A maioria dos usuários prefere utilizar o arquivo de configuração XML:


<?xml version='1.0' encoding='utf-8'?>
<!DOCTYPE hibernate-configuration PUBLIC
        "-//Hibernate/Hibernate Configuration DTD 3.0//EN"
        "http://hibernate.sourceforge.net/hibernate-configuration-3.0.dtd">

<hibernate-configuration>

    <session-factory>

        <!-- Database connection settings -->
        <property name="connection.driver_class"
>org.hsqldb.jdbcDriver</property>
        <property name="connection.url"
>jdbc:hsqldb:hsql://localhost</property>
        <property name="connection.username"
>sa</property>
        <property name="connection.password"
></property>

        <!-- JDBC connection pool (use the built-in) -->
        <property name="connection.pool_size"
>1</property>

        <!-- SQL dialect -->
        <property name="dialect"
>org.hibernate.dialect.HSQLDialect</property>

        <!-- Enable Hibernate's automatic session context management -->
        <property name="current_session_context_class"
>thread</property>

        <!-- Disable the second-level cache  -->
        <property name="cache.provider_class"
>org.hibernate.cache.NoCacheProvider</property>

        <!-- Echo all executed SQL to stdout -->
        <property name="show_sql"
>true</property>

        <!-- Drop and re-create the database schema on startup -->
        <property name="hbm2ddl.auto"
>update</property>

        <mapping resource="org/hibernate/tutorial/domain/Event.hbm.xml"/>

    </session-factory>

</hibernate-configuration
>

Nota

Perceba que este arquivo de configuração especifica um DTD diferente

Configure a SessionFactory do Hibernate. A SessionFactory é uma fábrica global responsável por uma base de dados particular. Se você tiver diversas bases de dados, use diversas configurações <session-factory>, geralmente em diversos arquivos de configuração, para uma inicialização mais fácil.

Os primeiros quatro elementos property contêm a configuração necessária para a conexão JBDC. O elemento property do dialeto especifica a variante do SQL particular que o Hibernate gera.

Dica

In most cases, Hibernate is able to properly determine which dialect to use. See Seção 26.3, “Resolução do Dialeto” for more information.

O gerenciamento automático de sessão do Hibernate para contextos de persistência é bastante útil neste contexto. A opção hbm2ddl.auto habilita a geração automática de esquemas da base de dados, diretamente na base de dados. Isto também pode ser naturalmente desligado apenas removendo a opção de configuração ou redirecionado para um arquivo com ajuda do SchemaExport na tarefa do Ant. Finalmente, iremos adicionar os arquivos das classes de persistência mapeadas na configuração.

Salve este arquivo como hibernate.cfg.xml no diretório src/main/resources.

Nós iremos construir agora o tutorial com Maven. Você necessitará que o Maven esteja instalado; ele está disponível a partir do Maven download page. O Maven gravará o arquivo /pom.xml que criamos anteriormente, além de saber como executar algumas tarefas do projeto básico. Primeiro, vamos rodar o objetivo compile para nos certificarmos de que tudo foi compilado até agora:

[hibernateTutorial]$ mvn compile
[INFO] Scanning for projects...
[INFO] ------------------------------------------------------------------------
[INFO] Building First Hibernate Tutorial
[INFO]    task-segment: [compile]
[INFO] ------------------------------------------------------------------------
[INFO] [resources:resources]
[INFO] Using default encoding to copy filtered resources.
[INFO] [compiler:compile]
[INFO] Compiling 1 source file to /home/steve/projects/sandbox/hibernateTutorial/target/classes
[INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESSFUL
[INFO] ------------------------------------------------------------------------
[INFO] Total time: 2 seconds
[INFO] Finished at: Tue Jun 09 12:25:25 CDT 2009
[INFO] Final Memory: 5M/547M
[INFO] ------------------------------------------------------------------------

É hora de carregar e armazenar alguns objetos Event, mas primeiro nós temos de completar a instalação com algum código de infraestrutura. Você precisa inicializar o Hibernate pela construção de um objeto org.hibernate.SessionFactory global e o armazenamento dele em algum lugar de fácil acesso para o código da aplicação. O org.hibernate.SessionFactory é usado para obter instâncias org.hibernate.Session. O org.hibernate.Session representa uma unidade de single-threaded de trabalho. O org.hibernate.SessionFactory é um objeto global thread-safe, instanciado uma vez.

Criaremos uma classe de ajuda HibernateUtil, que cuida da inicialização e faz acesso a uma org.hibernate.SessionFactory mais conveniente.

package org.hibernate.tutorial.util;


import org.hibernate.SessionFactory;
import org.hibernate.cfg.Configuration;
public class HibernateUtil {
    private static final SessionFactory sessionFactory = buildSessionFactory();
    private static SessionFactory buildSessionFactory() {
        try {
            // Create the SessionFactory from hibernate.cfg.xml
            return new Configuration().configure().buildSessionFactory();
        }
        catch (Throwable ex) {
            // Make sure you log the exception, as it might be swallowed
            System.err.println("Initial SessionFactory creation failed." + ex);
            throw new ExceptionInInitializerError(ex);
        }
    }
    public static SessionFactory getSessionFactory() {
        return sessionFactory;
    }
}

Salve este código como src/main/java/org/hibernate/tutorial/util/HibernateUtil.java

Esta classe não só produz uma referência org.hibernate.SessionFactory global em seu inicializador estático, mas também esconde o fato de que utiliza um autônomo estático. Nós poderemos buscar pela referência org.hibernate.SessionFactory a partir do JNDI no servidor da aplicação ou qualquer outra localização para este assunto.

Se você der um nome à SessionFactory em seu arquivo de configuração, o Hibernate irá, de fato, tentar vinculá-lo ao JNDI sob aquele nome, depois que estiver construído. Outra opção melhor seria usar a implementação JMX e deixar o recipiente JMX capaz, instanciar e vincular um HibernateService ao JNDI. Essas opções avançadas são discutidas no documento de referência do Hibernate. Tais opções avançadas serão discutidas mais tarde.

Você precisará agora configurar um sistema de logging. O Hibernate usa logging comuns e lhe oferece a escolha entre o Log4j e o logging do JDK 1.4 . A maioria dos desenvolvedores prefere o Log4j: copie log4j.properties da distribuição do Hibernate no diretório etc/, para seu diretório src, depois vá em hibernate.cfg.xml. Dê uma olhada no exemplo de configuração e mude as configurações se você quiser ter uma saída mais detalhada. Por padrão, apenas as mensagens de inicialização do Hibernate são mostradas no stdout.

O tutorial de infra-estrutura está completo e nós já estamos preparados para algum trabalho de verdade com o Hibernate.

We are now ready to start doing some real work with Hibernate. Let's start by writing an EventManager class with a main() method:

package org.hibernate.tutorial;


import org.hibernate.Session;
import java.util.*;
import org.hibernate.tutorial.domain.Event;
import org.hibernate.tutorial.util.HibernateUtil;
public class EventManager {
    public static void main(String[] args) {
        EventManager mgr = new EventManager();
        if (args[0].equals("store")) {
            mgr.createAndStoreEvent("My Event", new Date());
        }
        HibernateUtil.getSessionFactory().close();
    }
    private void createAndStoreEvent(String title, Date theDate) {
        Session session = HibernateUtil.getSessionFactory().getCurrentSession();
        session.beginTransaction();
        Event theEvent = new Event();
        theEvent.setTitle(title);
        theEvent.setDate(theDate);
        session.save(theEvent);
        session.getTransaction().commit();
    }
}

Em createAndStoreEvent(), criamos um novo objeto de Event, e passamos para o Hibernate. O Hibernate sabe como tomar conta do SQL e executa INSERTs no banco de dados.

A org.hibernate.Session is designed to represent a single unit of work (a single atomic piece of work to be performed). For now we will keep things simple and assume a one-to-one granularity between a Hibernate org.hibernate.Session and a database transaction. To shield our code from the actual underlying transaction system we use the Hibernate org.hibernate.Transaction API. In this particular case we are using JDBC-based transactional semantics, but it could also run with JTA.

O que a sessionFactory.getCurrentSession() faz? Primeiro, você pode chamar quantas vezes e de onde quiser, assim que você receber sua org.hibernate.SessionFactory. O método getCurrentSession() sempre retorna à unidade de trabalho "atual". Você se lembra que nós mudamos a opção de configuração desse mecanismo para "thread" em nosso src/main/resources/hibernate.cfg.xml? Devido a esta configuração, o contexto de uma unidade de trabalho atual estará vinculada à thread Java atual que executa nossa aplicação.

Um org.hibernate.Session começa quando for necessária, quando é feita a primeira chamada à getCurrentSession(). É então limitada pelo Hibernate para a thread atual. Quando a transação termina, tanto com commit quanto rollback, o Hibernate também desvincula a Session da thread e fecha isso pra você. Se você chamar getCurrentSession() novamente, você receberá uma nova Session e poderá começar uma nova unidade de trabalho.

Em relação ao escopo da unidade de trabalho, o Hibernate org.hibernate.Session deve ser utilizado para executar uma ou mais operações do banco de dados? O exemplo acima utiliza uma Session para cada operação. Isto é pura coincidência, o exemplo simplesmente não é complexo o bastante para mostrar qualquer outra abordagem. O escopo de um Hibernate org.hibernate.Session é flexível, mas você nunca deve configurar seu aplicativo para utilizar um novo Hibernate org.hibernate.Session para aoperação de banco de dados every. Portanto, mesmo que você o veja algumas vezes mais nos seguintes exemplos, considere session-per-operation como um anti-modelo. Um aplicativo da web real será demonstrado mais adiante neste tutorial.

See Capítulo 12, Transações e Concorrência for more information about transaction handling and demarcation. The previous example also skipped any error handling and rollback.

Para rodar isto, nós faremos uso do Maven exec plugin para chamar nossa classe com a instalação do classpath necessária: mvn exec:java -Dexec.mainClass="org.hibernate.tutorial.EventManager" -Dexec.args="store"

Nota

Você precisa executar o mvn compile primeiramente.

Você deverá ver, após a compilação, a inicialização do Hibernate e, dependendo da sua configuração, muito log de saída. No final, você verá a seguinte linha:

[java] Hibernate: insert into EVENTS (EVENT_DATE, title, EVENT_ID) values (?, ?, ?)

Este é o INSERT executado pelo Hibernate.

Adicionamos uma opção para o método principal com o objetivo de listar os eventos arquivados:

        if (args[0].equals("store")) {

            mgr.createAndStoreEvent("My Event", new Date());
        }
        else if (args[0].equals("list")) {
            List events = mgr.listEvents();
            for (int i = 0; i < events.size(); i++) {
                Event theEvent = (Event) events.get(i);
                System.out.println(
                        "Event: " + theEvent.getTitle() + " Time: " + theEvent.getDate()
                );
            }
        }

Nos também adicionamos um novo listEvents() method is also added:

    private List listEvents() {

        Session session = HibernateUtil.getSessionFactory().getCurrentSession();
        session.beginTransaction();
        List result = session.createQuery("from Event").list();
        session.getTransaction().commit();
        return result;
    }

Here, we are using a Hibernate Query Language (HQL) query to load all existing Event objects from the database. Hibernate will generate the appropriate SQL, send it to the database and populate Event objects with the data. You can create more complex queries with HQL. See Capítulo 15, HQL: A Linguagem de Consultas do Hibernate for more information.

Agora podemos chamar nossa nova funcionalidade usando, novamente, o Maven exec plugin: mvn exec:java -Dexec.mainClass="org.hibernate.tutorial.EventManager" -Dexec.args="list"

Nós mapeamos uma classe de entidade de persistência para uma tabela. Agora vamos continuar e adicionar algumas associações de classe. Primeiro iremos adicionar pessoas à nossa aplicação e armazenar os eventos em que elas participam.

Iremos adicionar uma coleção de eventos na classe Person. Dessa forma, poderemos navegar pelos eventos de uma pessoa em particular, sem executar uma consulta explicitamente, apenas chamando Person#getEvents. As associações de valores múltiplos são representadas no Hibernate por um dos contratos do Java Collection Framework; aqui nós escolhemos um java.util.Set, uma vez que a coleção não conterá elementos duplicados e a ordem não é relevante em nossos exemplos:

public class Person {


    private Set events = new HashSet();
    public Set getEvents() {
        return events;
    }
    public void setEvents(Set events) {
        this.events = events;
    }
}

Antes de mapearmos esta associação, pense no outro lado. Claramente, poderíamos apenas fazer isto de forma unidirecional. Ou poderíamos criar outra coleção no Event, se quisermos navegar de ambas direções. Isto não é necessário, de uma perspectiva funcional. Você poderá sempre executar uma consulta explícita para recuperar os participantes de um evento em particular. Esta é uma escolha de design que cabe a você, mas o que é claro nessa discussão é a multiplicidade da associação: "muitos" válidos em ambos os lados, nós chamamos isto de uma associação muitos-para-muitos. Daqui pra frente, usaremos o mapeamento muitos-para-muitos do Hibernate:


<class name="Person" table="PERSON">
    <id name="id" column="PERSON_ID">
        <generator class="native"/>
    </id>
    <property name="age"/>
    <property name="firstname"/>
    <property name="lastname"/>

    <set name="events" table="PERSON_EVENT">
        <key column="PERSON_ID"/>
        <many-to-many column="EVENT_ID" class="Event"/>
    </set>

</class
>

O Hibernate suporta todo tipo de mapeamento de coleção, sendo um set mais comum. Para uma associação muitos-para-muitos ou relacionamento de entidade n:m, é necessária uma tabela de associação. Cada linha nessa tabela representa um link entre uma pessoa e um evento. O nome da tabela é configurado com a função table do elemento set. O nome da coluna identificadora na associação, pelo lado da pessoa, é definido com o elemento key, o nome da coluna pelo lado dos eventos, é definido com a função column do many-to-many. Você também precisa dizer para o Hibernate a classe dos objetos na sua coleção (a classe do outro lado das coleções de referência).

O esquema de mapeamento para o banco de dados está a seguir:

    _____________        __________________
   |             |      |                  |       _____________
   |   EVENTS    |      |   PERSON_EVENT   |      |             |
   |_____________|      |__________________|      |    PERSON   |
   |             |      |                  |      |_____________|
   | *EVENT_ID   | <--> | *EVENT_ID        |      |             |
   |  EVENT_DATE |      | *PERSON_ID       | <--> | *PERSON_ID  |
   |  TITLE      |      |__________________|      |  AGE        |
   |_____________|                                |  FIRSTNAME  |
                                                  |  LASTNAME   |
                                                  |_____________|
 

Vamos reunir algumas pessoas e eventos em um novo método na classe EventManager:

    private void addPersonToEvent(Long personId, Long eventId) {

        Session session = HibernateUtil.getSessionFactory().getCurrentSession();
        session.beginTransaction();
        Person aPerson = (Person) session.load(Person.class, personId);
        Event anEvent = (Event) session.load(Event.class, eventId);
        aPerson.getEvents().add(anEvent);
        session.getTransaction().commit();
    }

Após carregar um Person e um Event, simplesmente modifique a coleção usando os métodos normais de uma coleção. Como você pode ver, não há chamada explícita para update() ou save(); o Hibernate detecta automaticamente que a coleção foi modificada e que necessita ser atualizada. Isso é chamado de checagem suja automática, e você também pode usá-la modificando o nome ou a data de qualquer um dos seus objetos. Desde que eles estejam no estado persistent, ou seja, limitado por uma Session do Hibernate em particular, o Hibernate monitora qualquer alteração e executa o SQL em modo de gravação temporária. O processo de sincronização do estado da memória com o banco de dados, geralmente apenas no final de uma unidade de trabalho, normalmente apenas no final da unidade de trabalho, é chamado de flushing. No nosso código, a unidade de trabalho termina com o commit , ou rollback, da transação do banco de dados.

Você pode também querer carregar pessoas e eventos em diferentes unidades de trabalho. Ou você modifica um objeto fora de um org.hibernate.Session, quando não se encontra no estado persistente (se já esteve neste estado anteriormente, chamamos esse estado de detached). Você pode até mesmo modificar uma coleção quando esta se encontrar no estado detached:

    private void addPersonToEvent(Long personId, Long eventId) {

        Session session = HibernateUtil.getSessionFactory().getCurrentSession();
        session.beginTransaction();
        Person aPerson = (Person) session
                .createQuery("select p from Person p left join fetch p.events where p.id = :pid")
                .setParameter("pid", personId)
                .uniqueResult(); // Eager fetch the collection so we can use it detached
        Event anEvent = (Event) session.load(Event.class, eventId);
        session.getTransaction().commit();
        // End of first unit of work
        aPerson.getEvents().add(anEvent); // aPerson (and its collection) is detached
        // Begin second unit of work
        Session session2 = HibernateUtil.getSessionFactory().getCurrentSession();
        session2.beginTransaction();
        session2.update(aPerson); // Reattachment of aPerson
        session2.getTransaction().commit();
    }

A chamada update cria um objeto persistente novamente, pode-se dizer que ele liga o objeto a uma nova unidade de trabalho, assim qualquer modificação que você faça neste objeto enquanto estiver no estado desanexado pode ser salvo no banco de dados. Isso inclui qualquer modificação (adição/exclusão) que você faça em uma coleção da entidade deste objeto.

Bem, isso não é de grande utilidade na nossa situação atual, porém, é um importante conceito que você pode criar em seu próprio aplicativo. No momento, complete este exercício adicionando uma ação ao método principal da classe EventManager e chame-o pela linha de comando. Se você precisar dos identificadores de uma pessoa ou evento - o método save() retornará estes identificadores (você poderá modificar alguns dos métodos anteriores para retornar aquele identificador):

        else if (args[0].equals("addpersontoevent")) {

            Long eventId = mgr.createAndStoreEvent("My Event", new Date());
            Long personId = mgr.createAndStorePerson("Foo", "Bar");
            mgr.addPersonToEvent(personId, eventId);
            System.out.println("Added person " + personId + " to event " + eventId);
        }

Este foi um exemplo de uma associação entre duas classes igualmente importantes: duas entidades. Como mencionado anteriormente, há outras classes e tipos dentro de um modelo típico, geralmente "menos importante". Alguns você já viu, como um int ou uma String. Nós chamamos essas classes de tipos de valores, e suas instâncias dependem de uma entidade particular. As instâncias desses tipos não possuem sua própria identidade, nem são compartilhados entre entidades. Duas pessoas não referenciam o mesmo objeto firstname mesmo se elas tiverem o mesmo objeto firstname. Naturalmente, os tipos de valores não são apenas encontrados dentro da JDK, mas você pode também criar suas classes como, por exemplo, Address ou MonetaryAmount. De fato, no aplicativo Hibernate todas as classes JDK são consideradas tipos de valores.

Você também pode criar uma coleção de tipo de valores. Isso é conceitualmente muito diferente de uma coleção de referências para outras entidades, mas em Java parece ser quase a mesma coisa.

Vamos adicionar uma coleção de endereços de e-mail à entidade Person. Isto será representado como um java.util.Set das instâncias java.lang.String:

    private Set emailAddresses = new HashSet();


    public Set getEmailAddresses() {
        return emailAddresses;
    }
    public void setEmailAddresses(Set emailAddresses) {
        this.emailAddresses = emailAddresses;
    }

Segue abaixo o mapeamento deste Set:


        <set name="emailAddresses" table="PERSON_EMAIL_ADDR">
            <key column="PERSON_ID"/>
            <element type="string" column="EMAIL_ADDR"/>
        </set
>

A diferença comparada com o mapeamento anterior se encontra na parte element, que informa ao Hibernate que a coleção não contém referências à outra entidade, mas uma coleção de elementos do tipo String. O nome da tag em minúsculo indica que se trata de um tipo/conversor de mapeamento do Hibernate. Mais uma vez, a função table do elemento set determina o nome da tabela para a coleção. O elemento key define o nome da coluna de chave estrangeira na tabela de coleção. A função column dentro do elemento element define o nome da coluna onde os valores da String serão armazenados.

Segue abaixo o esquema atualizado:

  _____________        __________________
 |             |      |                  |       _____________
 |   EVENTS    |      |   PERSON_EVENT   |      |             |       ___________________
 |_____________|      |__________________|      |    PERSON   |      |                   |
 |             |      |                  |      |_____________|      | PERSON_EMAIL_ADDR |
 | *EVENT_ID   | <--> | *EVENT_ID        |      |             |      |___________________|
 |  EVENT_DATE |      | *PERSON_ID       | <--> | *PERSON_ID  | <--> |  *PERSON_ID       |
 |  TITLE      |      |__________________|      |  AGE        |      |  *EMAIL_ADDR      |
 |_____________|                                |  FIRSTNAME  |      |___________________|
                                                |  LASTNAME   |
                                                |_____________|
 

Você pode observar que a chave primária da tabela da coleção é na verdade uma chave composta, usando as duas colunas. Isso também implica que cada pessoa não pode ter endereços de e-mail duplicados, o que é exatamente a semântica que precisamos para um set em Java.

Você pode agora tentar adicionar elementos à essa coleção, do mesmo modo que fizemos anteriormente ligando pessoas e eventos. É o mesmo código em Java:

    private void addEmailToPerson(Long personId, String emailAddress) {

        Session session = HibernateUtil.getSessionFactory().getCurrentSession();
        session.beginTransaction();
        Person aPerson = (Person) session.load(Person.class, personId);
        // adding to the emailAddress collection might trigger a lazy load of the collection
        aPerson.getEmailAddresses().add(emailAddress);
        session.getTransaction().commit();
    }

Desta vez não utilizamos uma consulta fetch (busca) para inicializar a coleção. Monitore o log SQL e tente otimizá-lo com árdua busca.

Agora iremos mapear uma associação bidirecional. Você fará uma associação entre o trabalho person e event de ambos os lados em Java. O esquema do banco de dados acima não muda, de forma que você continua possuir a multiplicidade muitos-para-muitos.

Primeiramente, adicione uma coleção de participantes à classe Event:

    private Set participants = new HashSet();


    public Set getParticipants() {
        return participants;
    }
    public void setParticipants(Set participants) {
        this.participants = participants;
    }

Agora mapeie este lado da associação em Event.hbm.xml.


        <set name="participants" table="PERSON_EVENT" inverse="true">
            <key column="EVENT_ID"/>
            <many-to-many column="PERSON_ID" class="events.Person"/>
        </set
>

Como você pode ver, esses são mapeamentos set normais em ambos documentos de mapeamento. Observe que os nomes das colunas em key e many-to-many estão trocados em ambos os documentos de mapeamento. A adição mais importante feita está na função inverse="true" no elemento set da coleção da classe Event.

Isso significa que o Hibernate deve pegar o outro lado, a classe Person, quando precisar encontrar informação sobre a relação entre as duas entidades. Isso será muito mais fácil de entender quando você analisar como a relação bidirecional entre as entidades é criada.

Primeiro, tenha em mente que o Hibernate não afeta a semântica normal do Java. Como foi que criamos um link entre uma Person e um Event no exemplo unidirecional? Adicionamos uma instância de Event, da coleção de referências de eventos, à uma instância de Person. Então, obviamente, se quisermos que este link funcione bidirecionalmente, devemos fazer a mesma coisa para o outro lado, adicionando uma referência de Person na coleção de um Event. Essa "configuração de link de ambos os lados" é absolutamente necessária e você nunca deve esquecer de fazê-la.

Muitos desenvolvedores programam de maneira defensiva e criam métodos de gerenciamento de um link que ajustam-se corretamente em ambos os lados (como por exemplo, em Person):

    protected Set getEvents() {

        return events;
    }
    protected void setEvents(Set events) {
        this.events = events;
    }
    public void addToEvent(Event event) {
        this.getEvents().add(event);
        event.getParticipants().add(this);
    }
    public void removeFromEvent(Event event) {
        this.getEvents().remove(event);
        event.getParticipants().remove(this);
    }

Observe que os métodos set e get da coleção estão protegidos. Isso permite que classes e subclasses do mesmo pacote continuem acessando os métodos, mas evita que qualquer outra classe, que não esteja no mesmo pacote, acesse a coleção diretamente. Repita os passos para a coleção do outro lado.

E sobre o mapeamento da função inverse? Para você, e para o Java, um link bidirecional é simplesmente uma questão de configurar corretamente as referências de ambos os lados. O Hibernate, entretanto, não possui informação necessária para ajustar corretamente as instruções INSERT e UPDATE do SQL (para evitar violações de restrição) e precisa de ajuda para manipular as associações bidirecionais de forma apropriada. Ao fazer um lado da associação com a função inverse, você instrui o Hibernate para basicamente ignorá-lo, considerando-o uma cópia do outro lado. Isso é o necessário para o Hibernate compreender todas as possibilidades quando transformar um modelo de navegação bidirecional em esquema de banco de dados do SQL. As regras que você precisa lembrar são diretas: todas as associações bidirecionais necessitam que um lado possua a função inverse. Em uma associação de um-para-muitos, precisará ser o lado de "muitos", já em uma associação de muitos-para-muitos você poderá selecionar qualquer lado.

Um aplicativo de web do Hibernate utiliza uma Session e uma Transaction quase do mesmo modo que um aplicativo autônomo. Entretanto, alguns modelos comuns são úteis. Nós agora criaremos um EventManagerServlet. Esse servlet lista todos os eventos salvos no banco de dados, e cria um formulário HTML para entrada de novos eventos.

Nós deveremos criar o nosso servket de processamento básico primeiramente. Uma vez que o servlet manuseia somente requisições GET do HTTP, o método que iremos implementar é doGet():

package org.hibernate.tutorial.web;


// Imports
public class EventManagerServlet extends HttpServlet {
    protected void doGet(
            HttpServletRequest request,
            HttpServletResponse response) throws ServletException, IOException {
        SimpleDateFormat dateFormatter = new SimpleDateFormat( "dd.MM.yyyy" );
        try {
            // Begin unit of work
            HibernateUtil.getSessionFactory().getCurrentSession().beginTransaction();
            // Process request and render page...
            // End unit of work
            HibernateUtil.getSessionFactory().getCurrentSession().getTransaction().commit();
        }
        catch (Exception ex) {
            HibernateUtil.getSessionFactory().getCurrentSession().getTransaction().rollback();
            if ( ServletException.class.isInstance( ex ) ) {
                throw ( ServletException ) ex;
            }
            else {
                throw new ServletException( ex );
            }
        }
    }
}

Salve esse servlet como src/main/java/org/hibernate/tutorial/web/EventManagerServlet.java

O modelo que estamos aplicando neste código é chamado session-per-request. Quando uma solicitação chega ao servlet, uma nova Session do Hibernate é aberta através da primeira chamada para getCurrentSession() em SessionFactory. Então uma transação do banco de dados é inicializada e todo acesso a dados deve ocorrer dentro de uma transação, não importando se o dado é de leitura ou escrita. Não se deve utilizar o modo auto-commit em aplicações.

Nunca utilize uma nova Session do Hibernate para todas as operações de banco de dados. Utilize uma Session do Hibernate que seja de interesse à todas as solicitações. Utilize getCurrentSession(), para que seja vinculado automaticamente à thread atual de Java.

Agora, as possíveis ações de uma solicitação serão processadas e uma resposta HTML será renderizada. Já chegaremos nesta parte.

Finalmente, a unidade de trabalho termina quando o processamento e a renderização são completados. Se ocorrer algum erro durante o processamento ou a renderização, uma exceção será lançada e a transação do banco de dados revertida. Isso completa o modelo session-per-request. Em vez de usar código de demarcação de transação em todo servlet você pode também criar um filtro servlet. Dê uma olhada no website do Hibernate e do Wiki para maiores informações sobre esse modelo, chamado Sessão Aberta na Visualização. Você precisará disto assim que você considerar renderizar sua visualização no JSP, não apenas num servlet.

Vamos implementar o processamento da solicitação e renderização da página.

        // Write HTML header

        PrintWriter out = response.getWriter();
        out.println("<html
><head
><title
>Event Manager</title
></head
><body
>");
        // Handle actions
        if ( "store".equals(request.getParameter("action")) ) {
            String eventTitle = request.getParameter("eventTitle");
            String eventDate = request.getParameter("eventDate");
            if ( "".equals(eventTitle) || "".equals(eventDate) ) {
                out.println("<b
><i
>Please enter event title and date.</i
></b
>");
            }
            else {
                createAndStoreEvent(eventTitle, dateFormatter.parse(eventDate));
                out.println("<b
><i
>Added event.</i
></b
>");
            }
        }
        // Print page
       printEventForm(out);
       listEvents(out, dateFormatter);
       // Write HTML footer
       out.println("</body
></html
>");
       out.flush();
       out.close();

O estilo deste código misturado com o Java e HTML, não escalariam em um aplicativo mais complexo, tenha em mente que estamos somente ilustrando os conceitos básicos do Hibernate neste tutorial. O código imprime um cabeçalho e nota de rodapé em HTML. Dentro desta página, são impressos um formulário para entrada de evento em HTML e uma lista de todos os evento no banco de dados. O primeiro método é trivial e somente produz um HTML:

    private void printEventForm(PrintWriter out) {

        out.println("<h2
>Add new event:</h2
>");
        out.println("<form
>");
        out.println("Title: <input name='eventTitle' length='50'/><br/>");
        out.println("Date (e.g. 24.12.2009): <input name='eventDate' length='10'/><br/>");
        out.println("<input type='submit' name='action' value='store'/>");
        out.println("</form
>");
    }

O método listEvents() utiliza a Session do Hibernate, limitado ao thread atual para executar uma consulta:

    private void listEvents(PrintWriter out, SimpleDateFormat dateFormatter) {


        List result = HibernateUtil.getSessionFactory()
                .getCurrentSession().createCriteria(Event.class).list();
        if (result.size() 
> 0) {
            out.println("<h2
>Events in database:</h2
>");
            out.println("<table border='1'
>");
            out.println("<tr
>");
            out.println("<th
>Event title</th
>");
            out.println("<th
>Event date</th
>");
            out.println("</tr
>");
            Iterator it = result.iterator();
            while (it.hasNext()) {
                Event event = (Event) it.next();
                out.println("<tr
>");
                out.println("<td
>" + event.getTitle() + "</td
>");
                out.println("<td
>" + dateFormatter.format(event.getDate()) + "</td
>");
                out.println("</tr
>");
            }
            out.println("</table
>");
        }
    }

Finalmente, a ação store, é despachada ao método createAndStoreEvent(), que também utiliza a Session da thread atual:

    protected void createAndStoreEvent(String title, Date theDate) {

        Event theEvent = new Event();
        theEvent.setTitle(title);
        theEvent.setDate(theDate);
        HibernateUtil.getSessionFactory()
                .getCurrentSession().save(theEvent);
    }

O servlet está completo agora. Uma solicitação ao servlet será processada com uma única Session e Transaction. Quanto antes estiver no aplicativo autônomo, maior a chance do Hibernate vincular automaticamente estes objetos à thread atual de execução. Isto lhe dá a liberdade para inserir seu código e acessar a SessionFactory como desejar. Geralmente, usaríamos um diagrama mais sofisticado e moveríamos o código de acesso de dados para os objetos de acesso dos dados (o modelo DAO). Veja o Hibernate Wiki para mais exemplos.

Para implementar este aplicativo em testes, nós devemos criar um Arquivo da Web (WAR). Primeiro, nós devemos definir o descritor WAR como src/main/webapp/WEB-INF/web.xml


<?xml version="1.0" encoding="UTF-8"?>
<web-app version="2.4"
    xmlns="http://java.sun.com/xml/ns/j2ee"
    xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
    xsi:schemaLocation="http://java.sun.com/xml/ns/j2ee http://java.sun.com/xml/ns/j2ee/web-app_2_4.xsd">

    <servlet>
        <servlet-name
>Event Manager</servlet-name>
        <servlet-class
>org.hibernate.tutorial.web.EventManagerServlet</servlet-class>
    </servlet>

    <servlet-mapping>
        <servlet-name
>Event Manager</servlet-name>
        <url-pattern
>/eventmanager</url-pattern>
    </servlet-mapping>
</web-app
>

Para construir e implementar, chame seu diretório de projeto ant war e copie o arquivo hibernate-tutorial.war para seu diretório Tomcat webapp.

Nota

If you do not have Tomcat installed, download it from http://tomcat.apache.org/ and follow the installation instructions. Our application requires no changes to the standard Tomcat configuration.

Uma vez implementado e com o Tomcat rodando, acesse o aplicativo em http://localhost:8080/hibernate-tutorial/eventmanager. Tenha a certeza de observar o log do Tomcat para ver o Hibernate inicializar quando a primeira solicitação chegar em seu servlet (o inicializador estático no HibernateUtil é chamado) e para obter o resultado detalhado caso exceções aconteçam.

O diagrama abaixo fornece uma visão de altíssimo nível da arquitetura do Hibernate:

Nós não temos o escopo neste documento para mostrar uma visão mais detalhada da arquitetura em execução. O Hibernate é muito flexível e suporta várias abordagens. Mostraremos os dois extremos. No entanto, nós apresentaremos os dois extremos: arquitetura "mínima" e arquitetura "compreensiva".

Este diagrama mostra o Hibernate usando o banco de dados e a configuração de dados para prover persistência de serviços e persistência de objetos para o aplicativo.

Na arquitetura "mínima", o aplicativo fornece suas próprias conexões JDBC e gerencia suas transações. Esta abordagem usa o mínimo de subconjuntos das APIs do Hibernate:

A arquitetura "compreensiva" abstrai a aplicação do JDBC/JTA e APIs adjacentes e deixa o Hibernate tomar conta dos detalhes.

Algumas definições dos objetos descritos nos diagramas:

SessionFactory (org.hibernate.SessionFactory)

O threadsafe, cachê imutável composto de mapeamentos compilados para um único banco de dados. Uma fábrica para Session e um cliente de ConnectionProvider, SessionFactory pode conter um cachê opcional de dados (segundo nível) reutilizáveis entre transações, no nível de processo ou cluster.

Session (org.hibernate.Session)

Objeto single-threaded, de vida curta, representa uma conversação entre o aplicativo e o armazenamento persistente. Cria uma camada sobre uma conexão JDBC. É uma fabrica de Transaction. A Session possui um cachê obrigatório (primeiro nível) de objetos persistentes, usado para navegação nos gráficos de objetos e pesquisa de objetos pelo identificador.

Objetos persistentes e coleções

Objetos, de vida curta, single threaded contendo estado persistente e função de negócios. Esses podem ser JavaBeans/POJOs, onde a única coisa especial sobre eles é que são associados a (exatamente uma) Session. Quando a Session é fechada, eles são separados e liberados para serem usados dentro de qualquer camada da aplicação (Ex. diretamente como objetos de transferência de dados de e para a camada de apresentação).

Objetos e coleções desanexados e transientes

Instâncias de classes persistentes que ainda não estão associadas a uma Session. Eles podem ter sido instanciados pela aplicação e não persistidos (ainda) ou eles foram instanciados por uma Session encerrada.

Transaction (org.hibernate.Transaction)

(Opcional) Objeto de vida curta, single threaded, usado pela aplicação para especificar unidades atômicas de trabalho. Abstrai o aplicativo das transações JDBC, JTA ou CORBA adjacentes. Uma Session pode, em alguns casos, iniciar várias Transactions. Entretanto, a demarcação da transação, mesmo utilizando API ou Transaction subjacentes, nunca é opcional.

Connection Provider (org.hibernate.connection.ConnectionProvider)

(Opcional) Uma fábrica de, e pool de, conexões JDBC. Abstrai a aplicação dos Datasource ou DriverManager adjacentes. Não exposto para a aplicação, mas pode ser implementado ou estendido pelo programador.

Transaction Factory (org.hibernate.TransactionFactory)

(Opcional) Uma fábrica para instâncias de Transaction. Não exposta a aplicação, mas pode ser estendida/implementada pelo programador.

Extension Interfaces

O Hibernate oferece várias opções de interfaces estendidas que você pode implementar para customizar sua camada persistente. Veja a documentação da API para maiores detalhes.

Dada uma arquitetura "mínima", o aplicativo passa pelas APIs Transaction/TransactionFactory e/ou ConnectionProvider para se comunicar diretamente com a transação JTA ou JDBC.

JMX é o padrão do J2EE para manipulação de componentes Java. O Hibernate pode ser manipulado por um serviço JMX padrão. Nós fornecemos uma implementação do MBean na distribuição: org.hibernate.jmx.HibernateService.

Para um exemplo de como implementar o Hibernate como um serviço JMX em um Servidor de Aplicativo JBoss, por favor, consulte o Guia do Usuário do JBoss. No JBoss As, você poderá ver os benefícios de se fazer a implementação usando JMX:

Consulte o manual do usuário do JBoss AS, para obter maiores informações sobre essas opções.

Another feature available as a JMX service is runtime Hibernate statistics. See Seção 3.4.6, “Estatísticas do Hibernate” for more information.

A maioria das aplicações que usa o Hibernate necessita de algum tipo de sessão "contextual", onde uma sessão dada é na verdade um escopo de um contexto. Entretanto, através de aplicações, a definição sobre um contexto é geralmente diferente; e contextos diferentes definem escopos diferentes. Aplicações usando versões anteriores ao Hibernate 3.0 tendem a utilizar tanto sessões contextuais baseadas em ThreadLocal, classes utilitárias como HibernateUtil, ou utilizar frameworks de terceiros (como Spring ou Pico) que provê sessões contextuais baseadas em proxy.

A partir da versão 3.0.1, o Hibernate adicionou o método SessionFactory.getCurrentSession(). Inicialmente, este considerou o uso de transações JTA, onde a transação JTA definia tanto o escopo quanto o contexto de uma sessão atual. Dada a maturidade de diversas implementações autônomas disponíveis do JTA TransactionManager, a maioria (se não todos) dos aplicativos deveria utilizar o gerenciador de transações JTA sendo ou não instalados dentro de um recipiente J2EE. Baseado neste recurso, você deve sempre utilizar sessões contextuais baseadas em JTA.

Entretanto, a partir da versão 3.1, o processo por trás do método SessionFactory.getCurrentSession() é agora plugável. Com isso, uma nova interface (org.hibernate.context.CurrentSessionContext) e um novo parâmetro de configuração (hibernate.current_session_context_class) foram adicionados para possibilitar a compatibilidade do contexto e do escopo na definição de sessões correntes.

Consulte no Javadocs sobre a interface org.hibernate.context.CurrentSessionContext para uma discussão detalhada. Ela define um método único, currentSession(), pelo qual a implementação é responsável por rastrear a sessão contextual atual. Fora da caixa, o Hibernate surge com três implementações dessa interface:

The first two implementations provide a "one session - one database transaction" programming model. This is also known and used as session-per-request. The beginning and end of a Hibernate session is defined by the duration of a database transaction. If you use programmatic transaction demarcation in plain JSE without JTA, you are advised to use the Hibernate Transaction API to hide the underlying transaction system from your code. If you use JTA, you can utilize the JTA interfaces to demarcate transactions. If you execute in an EJB container that supports CMT, transaction boundaries are defined declaratively and you do not need any transaction or session demarcation operations in your code. Refer to Capítulo 12, Transações e Concorrência for more information and code examples.

O parâmetro de configuração hibernate.current_session_context_class define qual implementação org.hibernate.context.CurrentSessionContext deve ser usada. Note que para compatibilidade anterior, se este parâmetro de configuração não for determinado mas um org.hibernate.transaction.TransactionManagerLookup for configurado, Hibernate usará o org.hibernate.context.JTASessionContext. Tipicamente, o valor deste parâmetro nomearia apenas a classe de implementação para usar; para as três implementações fora da caixa, entretanto, há dois pequenos nomes correspondentes, "jta", "thread", e "managed".

Devido ao fato do Hibernate ser projetado para operar em vários ambientes diferentes, há um grande número de parâmetros de configuração. Felizmente, a maioria possui valores padrão consideráveis e o Hibernate é distribuído com um arquivo hibernate.properties de exemplo no etc/ que mostra várias opções. Apenas coloque o arquivo de exemplo no seu classpath e personalize-o.

Uma instância de org.hibernate.cfg.Configuration representa um conjunto inteiro de mapeamentos de tipos Java de aplicação para um banco de dados SQL. O org.hibernate.cfg.Configuration é usado para construir uma SessionFactory imutável. Os mapeamentos são compilados a partir de diversos arquivos de mapeamento XML.

Você pode obter uma instância org.hibernate.cfg.Configuration intanciando-a diretamente e especificando os documentos de mapeamento XML. Se os arquivos de mapeamento estiverem no classpath, use addResource(). Por exemplo:

Configuration cfg = new Configuration()

    .addResource("Item.hbm.xml")
    .addResource("Bid.hbm.xml");

Uma alternativa é especificar a classe mapeada e permitir que o Hibernate encontre o documento de mapeamento para você:

Configuration cfg = new Configuration()

    .addClass(org.hibernate.auction.Item.class)
    .addClass(org.hibernate.auction.Bid.class);

O Hibernate procurará pelos arquivos de mapeamento chamados /org/hibernate/auction/Item.hbm.xml e /org/hibernate/auction/Bid.hbm.xml no classpath. Esta abordagem elimina qualquer nome de arquivo de difícil compreensão.

Uma Configuration também permite que você especifique propriedades de configuração específica. Por exemplo:

Configuration cfg = new Configuration()

    .addClass(org.hibernate.auction.Item.class)
    .addClass(org.hibernate.auction.Bid.class)
    .setProperty("hibernate.dialect", "org.hibernate.dialect.MySQLInnoDBDialect")
    .setProperty("hibernate.connection.datasource", "java:comp/env/jdbc/test")
    .setProperty("hibernate.order_updates", "true");

Esta não é a única forma de passar as propriedades de configuração para o Hibernate. As várias opções incluem:

Caso você deseje inicializar rapidamente o hibernate.properties é a abordagem mais rápida.

O org.hibernate.cfg.Configuration é previsto como um objeto de tempo de inicialização, a ser descartado quando um SessionFactory for criado.

Normalmente, você deseja que o org.hibernate.SessionFactory crie e faça um um pool de conexões JDBC para você. Se você seguir essa abordagem, a abertura de um org.hibernate.Session será tão simples quanto:

Session session = sessions.openSession(); // open a new Session

Assim que você fizer algo que requeira o acesso ao banco de dados, uma conexão JDBC será obtida a partir do pool.

Para esse trabalho, precisaremos passar algumas propriedades da conexão JDBC para o Hibernate. Todos os nomes de propriedades Hibernate e semânticas são definidas na classe org.hibernate.cfg.Environment. Descreveremos agora as configurações mais importantes para a conexão JDBC.

O Hibernate obterá conexões (e efetuará o pool) usando java.sql.DriverManager se você determinar as seguintes propriedades:


No entanto, o algoritmo de pool de conexões do próprio Hibernate é um tanto rudimentar. A intenção dele é ajudar a iniciar e não para ser usado em um sistema de produção ou até para testar o desempenho. Você deve utilizar um pool de terceiros para conseguir um melhor desempenho e estabilidade. Apenas substitua a propriedade hibernate.connection.pool_size pela configuração específica do pool de conexões. Isto irá desligar o pool interno do Hibernate. Por exemplo, você pode gostar de usar C3P0.

O C3P0 é um pool conexão JDBC de código aberto distribuído junto com Hibernate no diretório lib. O Hibernate usará o próprio org.hibernate.connection.C3P0ConnectionProvider para o pool de conexão se você configurar a propriedade hibernate.c3p0.*. Se você gostar de usar Proxool, consulte o pacote hibernate.properties e o web site do Hibernate para mais informações.

Este é um exemplo de arquivo hibernate.properties para c3p0:

hibernate.connection.driver_class = org.postgresql.Driver
hibernate.connection.url = jdbc:postgresql://localhost/mydatabase
hibernate.connection.username = myuser
hibernate.connection.password = secret
hibernate.c3p0.min_size=5
hibernate.c3p0.max_size=20
hibernate.c3p0.timeout=1800
hibernate.c3p0.max_statements=50
hibernate.dialect = org.hibernate.dialect.PostgreSQLDialect

Para usar dentro de um servidor de aplicação, você deve configurar o Hibernate para obter conexões de um servidor de aplicação javax.sql.Datasource registrado no JNDI. Você precisará determinar pelo menos uma das seguintes propriedades:


Eis um exemplo de arquivo hibernate.properties para um servidor de aplicação fornecedor de fontes de dados JNDI:

hibernate.connection.datasource = java:/comp/env/jdbc/test
hibernate.transaction.factory_class = \
    org.hibernate.transaction.JTATransactionFactory
hibernate.transaction.manager_lookup_class = \
    org.hibernate.transaction.JBossTransactionManagerLookup
hibernate.dialect = org.hibernate.dialect.PostgreSQLDialect

Conexões JDBC obtidas de um datasource JNDI irão automaticamente participar das transações gerenciadas pelo recipiente no servidor de aplicação.

As propriedades de conexão arbitrárias podem ser acrescentandas ao "hibernate.connnection" ao nome da propriedade. Por exemplo, você deve especificar a propriedade de conexão charSet usando hibernate.connection.charSet.

Você pode definir sua própria estratégia de plugin para obter conexões JDBC implementando a interface org.hibernate.connection.ConnectionProvider e especificando sua implementação customizada através da propriedade hibernate.connection.provider_class.

Há um grande número de outras propriedades que controlam o comportamento do Hibernate em tempo de execução. Todos são opcionais e têm valores padrão lógicos.

Tabela 3.3. Propriedades de Configuração do Hibernate

Nome da PropriedadePropósito
hibernate.dialect O nome da classe de um Hibernate org.hibernate.dialect.Dialect que permite o Hibernate gerar SQL otimizado para um banco de dados relacional em particular.

e.g. full.classname.of.Dialect

Na maioria dos casos, o Hibernate irá atualmente estar apto a escolher a implementação org.hibernate.dialect.Dialect correta baseada no JDBC metadata retornado pelo JDBC driver.

hibernate.show_sql Escreve todas as instruções SQL no console. Esta é uma alternativa para configurar a categoria de log org.hibernate.SQL to debug.

e.g. true | false

hibernate.format_sql Imprime o SQL formatado no log e recipiente.

e.g. true | false

hibernate.default_schema Qualifica no SQL gerado, os nome das tabelas desqualificadas com o esquema/espaço da tabela dado.

e.g. SCHEMA_NAME

hibernate.default_catalog Qualifica no SQL gerado, os nome das tabelas desqualificadas com catálogo dado.

e.g. CATALOG_NAME

hibernate.session_factory_name O org.hibernate.SessionFactory irá automaticamente se ligar a este nome no JNDI depois de ter sido criado.

e.g. jndi/composite/name

hibernate.max_fetch_depth Estabelece a "profundidade" máxima para árvore de busca de união externa para associações finais únicas (um para um, muitos para um). Um 0 desativa por padrão a busca de união externa.

eg. valores recomendados entre0 e 3

hibernate.default_batch_fetch_size Determina um tamanho padrão para busca de associações em lotes do Hibernate.

eg. valores recomendados 4, 8, 16

hibernate.default_entity_mode Determina um modo padrão para representação de entidade para todas as sessões abertas desta SessionFactory

dynamic-map, dom4j, pojo

hibernate.order_updates Força o Hibernate a ordenar os updates SQL pelo valor da chave primária dos ítens a serem atualizados. Isto resultará em menos deadlocks nas transações em sistemas altamente concorrente.

e.g. true | false

hibernate.generate_statistics Se habilitado, o Hibernate coletará estatísticas úteis para o ajuste do desempenho.

e.g. true | false

hibernate.use_identifier_rollback Se habilitado, propriedades identificadoras geradas serão zeradas para os valores padrão quando os objetos forem apagados.

e.g. true | false

hibernate.use_sql_comments Se ligado, o Hibernate irá gerar comentários dentro do SQL, para facilitar a depuração, o valor padrão é false

e.g. true | false


Tabela 3.4. JDBC Hibernate e Propriedades de Conexão

Nome da PropriedadePropósito
hibernate.jdbc.fetch_size Um valor maior que zero determina o tamanho da buscado JDBC (chamadas Statement.setFetchSize()).
hibernate.jdbc.batch_size Um valor maior que zero habilita o uso das atualizações em lotes JDBC2 pelo Hibernate.

ex. valores recomentados entre 5 e 30

hibernate.jdbc.batch_versioned_data Set this property to true if your JDBC driver returns correct row counts from executeBatch(). It is usually safe to turn this option on. Hibernate will then use batched DML for automatically versioned data. Defaults to false.

e.g. true | false

hibernate.jdbc.factory_class Escolher um org.hibernate.jdbc.Batcher. Muitas aplicações não irão precisar desta propriedade de configuração.

exemplo classname.of.BatcherFactory

hibernate.jdbc.use_scrollable_resultset Habilita o uso dos resultados de ajustes roláveis do JDBC2 pelo Hibernate. Essa propriedade somente é necessária quando se usa Conexões JDBC providas pelo usuário. Do contrário, o Hibernate os os metadados da conexão.

e.g. true | false

hibernate.jdbc.use_streams_for_binary Utilize fluxos para escrever/ler tipos binary ou tipos serializable para/do JDBC. *system-level property*

e.g. true | false

hibernate.jdbc.use_get_generated_keys Possibilita o uso do PreparedStatement.getGeneratedKeys() JDBC3 para recuperar chaves geradas de forma nativa depois da inserção. Requer driver JDBC3+ e JRE1.4+, ajuste para falso se seu driver tiver problemas com gerador de indentificadores Hibernate. Por padrão, tente determinar o driver capaz de usar metadados da conexão.

exemplo true|false

hibernate.connection.provider_class O nome da classe de um org.hibernate.connection.ConnectionProvider, do qual proverá conexões JDBC para o Hibernate.

exemploclassname.of.ConnectionProvider

hibernate.connection.isolation Determina o nível de isolamento de uma transação JDBC. Verifique java.sql.Connection para valores significativos mas note que a maior parte dos bancos de dados não suportam todos os isolamentos que não são padrões.

exemplo 1, 2, 4, 8

hibernate.connection.autocommit Habilita o auto-commit para conexões no pool JDBC (não recomendado).

e.g. true | false

hibernate.connection.release_mode Especifica quando o Hibernate deve liberar conexões JDBC. Por padrão, uma conexão JDBC é retida até a sessão estar explicitamente fechada ou desconectada. Para uma fonte de dados JTA do servidor de aplicação, você deve usar after_statement para forçar a liberação da conexões depois de todas as chamadas JDBC. Para uma conexão não-JTA, freqüentemente faz sentido liberar a conexão ao fim de cada transação, usando after_transaction. O auto escolherá after_statement para as estratégias de transaçãoes JTA e CMT e after_transaction para as estratégias de transação JDBC.

exemplo auto (padrão) | on_close | after_transaction | after_statement

This setting only affects Sessions returned from SessionFactory.openSession. For Sessions obtained through SessionFactory.getCurrentSession, the CurrentSessionContext implementation configured for use controls the connection release mode for those Sessions. See Seção 2.5, “Sessões Contextuais”

hibernate.connection.<propertyName> Passar a propriedade JDBC <propertyName> para DriverManager.getConnection().
hibernate.jndi.<propertyName> Passar a propriedade <propertyName> para o JNDI InitialContextFactory.



Tabela 3.7. Propriedades Variadas

Nome da PropriedadePropósito
hibernate.current_session_context_class Supply a custom strategy for the scoping of the "current" Session. See Seção 2.5, “Sessões Contextuais” for more information about the built-in strategies.

exemplo jta | thread | managed | custom.Class

hibernate.query.factory_class Escolha a implementação de análise HQL.

exemplo org.hibernate.hql.ast. ASTQueryTranslatorFactory ou org.hibernate.hql.classic. ClassicQueryTranslatorFactory

hibernate.query.substitutions Mapeamento a partir de símbolos em consultas do Hibernate para para símbolos SQL (símbolos devem ser por exemplo, funções ou nome literais).

exemplo hqlLiteral=SQL_LITERAL, hqlFunction=SQLFUNC

hibernate.hbm2ddl.auto Automaticamente valida ou exporta DDL esquema para o banco de dados quando o SessionFactory é criado. Com create-drop, o esquema do banco de dados será excluido quando a SessionFactory for fechada explicitamente.

exemplo validate | update | create | create-drop

hibernate.bytecode.use_reflection_optimizer

Enables the use of bytecode manipulation instead of runtime reflection. This is a System-level property and cannot be set in hibernate.cfg.xml. Reflection can sometimes be useful when troubleshooting. Hibernate always requires either CGLIB or javassist even if you turn off the optimizer.

e.g. true | false

hibernate.bytecode.provider

Both javassist or cglib can be used as byte manipulation engines; the default is javassist.

e.g. javassist | cglib


Você deve sempre determinar a propriedade hibernate.dialect para a subclasse de org.hibernate.dialect.Dialect correta de seu banco de dados. Se você especificar um dialeto, o Hibernate usará padrões lógicos para qualquer um das outras propriedades listadas abaixo, reduzindo o esforço de especificá-los manualmente.


O Hibernate utiliza o Simple Logging Facade for Java (SLF4J) com o objetivo de registrar os diversos eventos de sistema. O SLF4J pode direcionar a sua saída de logging a diversos frameworks de logging (NOP, Simple, log4j version 1.2, JDK 1.4 logging, JCL ou logback) dependendo de sua escolha de vinculação. Com o objetivo de determinar o seu logging, você precisará do slf4j-api.jar em seu classpatch juntamente com o arquivo jar para a sua vinculação preferida - slf4j-log4j12.jar no caso do Log4J. Consulte o SLF4J documentation para maiores detalhes. Para usar o Log4j você precisará também colocar um arquivo log4j.properties em seu classpath. Um exemplo do arquivo de propriedades está distribuído com o Hibernate no diretório src/.

Nós recomendamos que você se familiarize-se com mensagens de log do Hibernate. Tem sido um árduo trabalho fazer o log Hibernate tão detalhado quanto possível, sem fazê-lo ilegível. É um dispositivo de controle de erros essencial. As categorias de log mais interessantes são as seguintes:


Ao desenvolver aplicações com Hibernate, você deve quase sempre trabalhar com o depurador debug habilitado para a categoria org.hibernate.SQL, ou, alternativamente, com a propriedade hibernate.show_sql habilitada.

Uma maneira alternativa de configuração é especificar uma configuração completa em um arquivo chamado hibernate.cfg.xml. Este arquivo pode ser usado como um substituto para o arquivo hibernate.properties ou, se ambos estiverem presentes, para substituir propriedades.

O arquivo XML de configuração deve ser encontrado na raíz do seu CLASSPATH. Veja um exemplo:


<?xml version='1.0' encoding='utf-8'?>
<!DOCTYPE hibernate-configuration PUBLIC
    "-//Hibernate/Hibernate Configuration DTD//EN"
    "http://hibernate.sourceforge.net/hibernate-configuration-3.0.dtd">

<hibernate-configuration>

    <!-- a SessionFactory instance listed as /jndi/name -->
    <session-factory
        name="java:hibernate/SessionFactory">

        <!-- properties -->
        <property name="connection.datasource"
>java:/comp/env/jdbc/MyDB</property>
        <property name="dialect"
>org.hibernate.dialect.MySQLDialect</property>
        <property name="show_sql"
>false</property>
        <property name="transaction.factory_class">
            org.hibernate.transaction.JTATransactionFactory
        </property>
        <property name="jta.UserTransaction"
>java:comp/UserTransaction</property>

        <!-- mapping files -->
        <mapping resource="org/hibernate/auction/Item.hbm.xml"/>
        <mapping resource="org/hibernate/auction/Bid.hbm.xml"/>

        <!-- cache settings -->
        <class-cache class="org.hibernate.auction.Item" usage="read-write"/>
        <class-cache class="org.hibernate.auction.Bid" usage="read-only"/>
        <collection-cache collection="org.hibernate.auction.Item.bids" usage="read-write"/>

    </session-factory>

</hibernate-configuration
>

Como você pode ver, a vantagem deste enfoque é a externalização dos nomes dos arquivos de mapeamento para configuração. O hibernate.cfg.xml também é mais conveniente caso você tenha que ajustar o cache do Hibernate. Note que a escolha é sua em usar hibernate.properties ou hibernate.cfg.xml, ambos são equivalentes, exceto os acima mencionados de usar a sintaxe de XML.

Com a configuração do XML, iniciar o Hibernate é então tão simples quanto:

SessionFactory sf = new Configuration().configure().buildSessionFactory();

Você poderá escolher um arquivo de configuração XML diferente, utilizando:

SessionFactory sf = new Configuration()

    .configure("catdb.cfg.xml")
    .buildSessionFactory();

O Hibernate tem os seguintes pontos da integração para a infraestrutura de J2EE:

Dependendo do seu ambiente, você pode ter que ajustar a opção de configuração hibernate.connection.aggressive_release para verdadeiro ( true ), se seu servidor de aplicações lançar exeções "retenção de conexão".

A API Hibernate Session é independente de qualquer sistema de demarcação de transação em sua arquitetura. Se você deixar o Hibernate usar a JDBC diretamente, através de um pool de conexões, você pode inicializar e encerrar suas transações chamando a API JDBC. Se você rodar em um servidor de aplicações J2EE, você poderá usar transações controladas por beans e chamar a API JTA e UserTransaction quando necessário.

Para manter seu código portável entre estes dois (e outros) ambientes, recomendamos a API Hibernate Transaction, que envolve e esconde o sistema subjacente. Você tem que especificar uma classe construtora para instâncias Transaction ajustando a propriedade de configuração do hibernate.transaction.factory_class.

Existem três escolhas, ou internas, padrões:

Você também pode definir suas próprias estratégias de transação (para um serviço de transação CORBA, por exemplo).

Algumas características no Hibernate (ex., o cache de segundo nível, sessões contextuais com JTA, etc.) requerem acesso a JTA TransactionManager em um ambiente controlado. Em um servidor de aplicação você tem que especificar como o Hibernate pode obter uma referência para a TransactionManager, pois o J2EE não padroniza um mecanismo simples:


Uma SessionFactory de Hibernate vinculada à JNDI pode simplificar a localização da fábrica e a criação de novas Sessions. Observe que isto não está relacionado a um Datasource ligado a JNDI, simplesmente ambos usam o mesmo registro.

Se você desejar ter uma SessionFactory limitada a um nome de espaço de JNDI, especifique um nome (ex.: java:hibernate/SessionFactory) usando a propriedade hibernate.session_factory_name. Se esta propriedade for omitida, a SessionFactory não será limitada ao JNDI. Isto é muito útil em ambientes com uma implementação padrão JNDI de somente leitura (ex.: Tomcat).

Ao vincular a SessionFactory ao JNDI, o Hibernate irá utilizar os valores de hibernate.jndi.url, hibernate.jndi.class para instanciar um contexto inicial. Se eles não forem especificados, será usado o padrão InitialContext.

O Hibernate colocará automaticamente a SessionFactory no JNDI depois que você chamar a cfg.buildSessionFactory(). Isto significa que você terá esta chamada em pelo menos algum código de inicialização (ou classe de utilidade) em seu aplicativo, a não ser que você use a implementação JMX com o HibernateService (discutido mais tarde).

Se você usar um JNDI SessionFactory, o EJB ou qualquer outra classe obterá a SessionFactory utilizando um localizador JNDI.

Recomendamos que você vincule a SessionFactory ao JNDI em um ambiente gerenciado e utilize um singleton static. Para proteger seu código de aplicativo destes detalhes, também recomendamos que esconda o código de localização atual para uma SessionFactory em uma classe de ajuda, assim como o HibernateUtil.getSessionFactory(). Note que tal classe é também uma forma bastante conveniente de inicializar o Hibernate— veja o capítulo 1.

The easiest way to handle Sessions and transactions is Hibernate's automatic "current" Session management. For a discussion of contextual sessions see Seção 2.5, “Sessões Contextuais”. Using the "jta" session context, if there is no Hibernate Session associated with the current JTA transaction, one will be started and associated with that JTA transaction the first time you call sessionFactory.getCurrentSession(). The Sessions retrieved via getCurrentSession() in the "jta" context are set to automatically flush before the transaction completes, close after the transaction completes, and aggressively release JDBC connections after each statement. This allows the Sessions to be managed by the life cycle of the JTA transaction to which it is associated, keeping user code clean of such management concerns. Your code can either use JTA programmatically through UserTransaction, or (recommended for portable code) use the Hibernate Transaction API to set transaction boundaries. If you run in an EJB container, declarative transaction demarcation with CMT is preferred.

A linha cfg.buildSessionFactory() ainda precisa ser executada em algum local para conseguir uma SessionFactory em JNDI. Você pode escolher fazer isto em um bloqueio de inicializador static, como aquele em HibernateUtil, ou implementar o Hibernate como serviço gerenciado.

O Hibernate é distribuído com o org.hibernate.jmx.HibernateService para implementação em um servidor de aplicativo com capacidades JMX, tal como o JBoss AS. A implementação atual e configuração é comercial. Segue aqui um exemplo do jboss-service.xml para o JBoss 4.0.x:


<?xml version="1.0"?>
<server>

<mbean code="org.hibernate.jmx.HibernateService"
    name="jboss.jca:service=HibernateFactory,name=HibernateFactory">

    <!-- Required services -->
    <depends
>jboss.jca:service=RARDeployer</depends>
    <depends
>jboss.jca:service=LocalTxCM,name=HsqlDS</depends>

    <!-- Bind the Hibernate service to JNDI -->
    <attribute name="JndiName"
>java:/hibernate/SessionFactory</attribute>

    <!-- Datasource settings -->
    <attribute name="Datasource"
>java:HsqlDS</attribute>
    <attribute name="Dialect"
>org.hibernate.dialect.HSQLDialect</attribute>

    <!-- Transaction integration -->
    <attribute name="TransactionStrategy">
        org.hibernate.transaction.JTATransactionFactory</attribute>
    <attribute name="TransactionManagerLookupStrategy">
        org.hibernate.transaction.JBossTransactionManagerLookup</attribute>
    <attribute name="FlushBeforeCompletionEnabled"
>true</attribute>
    <attribute name="AutoCloseSessionEnabled"
>true</attribute>

    <!-- Fetching options -->
    <attribute name="MaximumFetchDepth"
>5</attribute>

    <!-- Second-level caching -->
    <attribute name="SecondLevelCacheEnabled"
>true</attribute>
    <attribute name="CacheProviderClass"
>org.hibernate.cache.EhCacheProvider</attribute>
    <attribute name="QueryCacheEnabled"
>true</attribute>

    <!-- Logging -->
    <attribute name="ShowSqlEnabled"
>true</attribute>

    <!-- Mapping files -->
    <attribute name="MapResources"
>auction/Item.hbm.xml,auction/Category.hbm.xml</attribute>

</mbean>

</server
>

Este arquivo é implementado em um diretório chamado META-INF e envolto em um arquivo JAR com a extensão .sar (arquivo de serviço). Você também pode precisar envolver o Hibernate, suas bibliotecas de terceiros solicitadas, suas classes persistentes compiladas, assim como seus arquivos de mapeamento no mesmo arquivo. Seus beans de empresa (geralmente beans de sessão) podem ser mantidos em seus próprios arquivos JAR, mas você poderá incluir estes arquivos EJB JAR no arquivo de serviço principal para conseguir uma única unidade de (hot)-deployable. Consulte a documentação do JBoss AS para maiores informações sobre o serviço JMX e implementação EJB.

As classes persistentes são classes dentro de um aplicativo que implementa as entidades de problemas de negócios (ex.: Cliente e Pedido em um aplicativo e-commerce). Nem todas as instâncias de uma classe persistente estão em estado persistente, uma instância pode, ao invés disso, ser transiente ou desanexada.

O Hibernate trabalha melhor se estas classes seguirem uma regra simples, também conhecida como modelo de programação Objeto de Java Antigo Simples (POJO). No entanto, nenhuma destas regras são difíceis solicitações. Certamente, o Hibernate3 considera muito pouco da natureza de seus objetos persistentes. Você pode expressar um modelo de domínio de outras formas (por exemplo: utilizando árvores de instâncias Map).

A maior parte dos aplicativos Java requerem uma classe persistente que representa os felinos. Por exemplo:

package eg;

import java.util.Set;
import java.util.Date;
public class Cat {
    private Long id; // identifier
    private Date birthdate;
    private Color color;
    private char sex;
    private float weight;
    private int litterId;
    private Cat mother;
    private Set kittens = new HashSet();
    private void setId(Long id) {
        this.id=id;
    }
    public Long getId() {
        return id;
    }
    void setBirthdate(Date date) {
        birthdate = date;
    }
    public Date getBirthdate() {
        return birthdate;
    }
    void setWeight(float weight) {
        this.weight = weight;
    }
    public float getWeight() {
        return weight;
    }
    public Color getColor() {
        return color;
    }
    void setColor(Color color) {
        this.color = color;
    }
    void setSex(char sex) {
        this.sex=sex;
    }
    public char getSex() {
        return sex;
    }
    void setLitterId(int id) {
        this.litterId = id;
    }
    public int getLitterId() {
        return litterId;
    }
    void setMother(Cat mother) {
        this.mother = mother;
    }
    public Cat getMother() {
        return mother;
    }
    void setKittens(Set kittens) {
        this.kittens = kittens;
    }
    public Set getKittens() {
        return kittens;
    }
    
    // addKitten not needed by Hibernate
    public void addKitten(Cat kitten) {
            kitten.setMother(this);
        kitten.setLitterId( kittens.size() ); 
        kittens.add(kitten);
    }
}

As quatro regras principais das classes persistentes são descritas em maiores detalhes nas seguintes seções.

Você precisa substituir os métodos equals() e hashCode() se você:

O Hibernate garante a equivalência de identidades persistentes (linha de base de dados) e identidade Java somente dentro de um certo escopo de sessão. Dessa forma, assim que misturarmos instâncias recuperadas em sessões diferentes, devemos implementar equals() e hashCode() se quisermos ter semânticas significativas para os Sets.

A forma mais óbvia é implementar equals()/hashCode() comparando o valor do identificador de ambos objetos. Caso o valor seja o mesmo, ambos devem ter a mesma linha de base de dados, assim eles serão iguais (se ambos forem adicionados a um Set, nós só teremos um elemento no Set). Infelizmente, não podemos usar esta abordagem com os identificadores gerados. O Hibernate atribuirá somente os valores de identificadores aos objetos que forem persistentes, uma instância recentemente criada não terá nenhum valor de identificador. Além disso, se uma instância não for salva e estiver em um Set, salvá-la atribuirá um valor de identificador ao objeto. Se equals() e hashCode() fossem baseados em um valor identificador, o código hash teria mudado, quebrando o contrato do Set. Consulte o website do Hibernate para acessar uma discussão completa sobre este problema. Note que esta não é uma edição do Hibernate, e sim semânticas naturais do Java de igualdade e identidade.

Recomendamos implementar equals() e hashCode() usando Business key equality. A chave de negócios significa que o método equals() compara somente a propriedade que formar uma chave de negócios, uma chave que identificaria nossa instância na realidade (uma chave de candidato natural):

public class Cat {


    ...
    public boolean equals(Object other) {
        if (this == other) return true;
        if ( !(other instanceof Cat) ) return false;
        final Cat cat = (Cat) other;
        if ( !cat.getLitterId().equals( getLitterId() ) ) return false;
        if ( !cat.getMother().equals( getMother() ) ) return false;
        return true;
    }
    public int hashCode() {
        int result;
        result = getMother().hashCode();
        result = 29 * result + getLitterId();
        return result;
    }
}

A business key does not have to be as solid as a database primary key candidate (see Seção 12.1.3, “Considerando a identidade do objeto”). Immutable or unique properties are usually good candidates for a business key.

Entidades persistentes não precisam ser representadas como classes POJO ou como objetos JavaBeans em tempo de espera. O Hibernate também suporta modelos dinâmicos (usando Maps de Maps em tempo de execução) e a representação de entidades como árvores DOM4J. Com esta abordagem, você não escreve classes persistes, somente arquivos de mapeamentos.

By default, Hibernate works in normal POJO mode. You can set a default entity representation mode for a particular SessionFactory using the default_entity_mode configuration option (see Tabela 3.3, “Propriedades de Configuração do Hibernate”).

Os seguintes exemplos demonstram a representação usando Maps. Primeiro, no arquivo de mapeamento, um entity-name precisa ser declarado ao invés de (ou além de) um nome de classe:


<hibernate-mapping>

    <class entity-name="Customer">

        <id name="id"
            type="long"
            column="ID">
            <generator class="sequence"/>
        </id>

        <property name="name"
            column="NAME"
            type="string"/>

        <property name="address"
            column="ADDRESS"
            type="string"/>

        <many-to-one name="organization"
            column="ORGANIZATION_ID"
            class="Organization"/>

        <bag name="orders"
            inverse="true"
            lazy="false"
            cascade="all">
            <key column="CUSTOMER_ID"/>
            <one-to-many class="Order"/>
        </bag>

    </class>
    
</hibernate-mapping
>

Note que embora as associações sejam declaradas utilizando nomes de classe, o tipo alvo de uma associação pode também ser uma entidade dinâmica, ao invés de um POJO.

Após ajustar o modo de entidade padrão para dynamic-map para a SessionFactory, você poderá trabalhar com Maps de Maps no período de execução:

Session s = openSession();

Transaction tx = s.beginTransaction();
// Create a customer
Map david = new HashMap();
david.put("name", "David");
// Create an organization
Map foobar = new HashMap();
foobar.put("name", "Foobar Inc.");
// Link both
david.put("organization", foobar);
// Save both
s.save("Customer", david);
s.save("Organization", foobar);
tx.commit();
s.close();

As vantagens de um mapeamento dinâmico são o tempo de retorno rápido para realizar o protótipo sem a necessidade de implementar uma classe de entidade. No entanto, você perde o tipo de tempo de compilação, verificando e muito provavelmente terá que lidar com muitas exceções de tempo de espera. Graças ao mapeamento do Hibernate, o esquema do banco de dados pode ser facilmente normalizado e seguro, permitindo adicionar uma implementação modelo de domínio apropriado na camada do topo num futuro próximo.

Modos de representação de entidade podem ser também ajustados para base por Session:

Session dynamicSession = pojoSession.getSession(EntityMode.MAP);


// Create a customer
Map david = new HashMap();
david.put("name", "David");
dynamicSession.save("Customer", david);
...
dynamicSession.flush();
dynamicSession.close()
...
// Continue on pojoSession

Por favor, note que a chamada para a getSession() usando um EntityMode está na API de Session e não na SessionFactory. Dessa forma, a nova Session compartilha a conexão, transação e outra informação de contexto JDBC adjacente. Isto significa que você não precisará chamar flush() e close() na Session secundária, e também deixar a transação e o manuseio da conexão para a unidade primária do trabalho.

More information about the XML representation capabilities can be found in Capítulo 19, Mapeamento XML.

org.hibernate.tuple.Tuplizer, e suas sub-interfaces, são responsáveis por gerenciar uma certa representação de uma parte de dado, dada a org.hibernate.EntityMode da representação. Se uma parte de dado é tida como uma estrutura de dado, então o tuplizador se encarrega de criar tal estrutura de dado e como extrair e injetar valores de e em tal estrutura de dados. Por exemplo, para um modo POJO, o tuplizador correspondente sabe como criar um POJO através de seu construtor. Além disso, ele sabe como acessar propriedades de POJO usando assessores de propriedades definidas.

Existem dois tipos de alto nível de Tuplizadores, representados pelas interfaces org.hibernate.tuple.entity.EntityTuplizer e org.hibernate.tuple.component.ComponentTuplizer. Os EntityTuplizers são responsáveis pelo gerenciamento dos contratos mencionados acima em relação às entidades, enquanto os ComponentTuplizers realizam o mesmo para os componentes.

Os usuários podem também plugar seu próprio tuplizador. Talvez você queira usar uma implementação java.util.Map ao invés de uma java.util.HashMap enquanto estiver no modo de entidade mapa dinâmico, ou talvez você precise definir uma estratégia de geração de proxy diferente, ao invés de uma utilizada por padrão. Ambas seriam alcançadas definindo uma implementação de tuplizador personalizada. As definições do tuplizador estão anexadas à entidade ou ao mapeamento de componente que tiverem que gerenciar. Retornando ao exemplo da entidade do nosso cliente:


<hibernate-mapping>
    <class entity-name="Customer">
        <!--
            Override the dynamic-map entity-mode
            tuplizer for the customer entity
        -->
        <tuplizer entity-mode="dynamic-map"
                class="CustomMapTuplizerImpl"/>

        <id name="id" type="long" column="ID">
            <generator class="sequence"/>
        </id>

        <!-- other properties -->
        ...
    </class>
</hibernate-mapping>


public class CustomMapTuplizerImpl
        extends org.hibernate.tuple.entity.DynamicMapEntityTuplizer {
    // override the buildInstantiator() method to plug in our custom map...
    protected final Instantiator buildInstantiator(
            org.hibernate.mapping.PersistentClass mappingInfo) {
        return new CustomMapInstantiator( mappingInfo );
    }

    private static final class CustomMapInstantiator
            extends org.hibernate.tuple.DynamicMapInstantitor {
        // override the generateMap() method to return our custom map...
            protected final Map generateMap() {
                    return new CustomMap();
            }
    }
}

A interface org.hibernate.EntityNameResolver é um contrato para resolver o nome da entidade de uma instância de entidade dada. A interface define um resolveEntityName de método único que é passado à instância de entidade e é esperado a retornar ao nome de entidade apropriado (nulo é permitido e indicaria que o solucionador não saiba como resolver o nome de entidade da instância de entidade dada). Normalmente, um org.hibernate.EntityNameResolver será mais útil no caso de modelos dinâmicos. Um exemplo poderá ser usado nas interfaces com proxie no caso dos modelos dinâmicos. O hibernate test suite possui um exemplo deste estilo exato de uso sob o org.hibernate.test.dynamicentity.tuplizer2. Segue abaixo parte do código a partir daquele pacote para ilustração.

/**

 * A very trivial JDK Proxy InvocationHandler implementation where we proxy an interface as
 * the domain model and simply store persistent state in an internal Map.  This is an extremely
 * trivial example meant only for illustration.
 */
public final class DataProxyHandler implements InvocationHandler {
        private String entityName;
        private HashMap data = new HashMap();
        public DataProxyHandler(String entityName, Serializable id) {
                this.entityName = entityName;
                data.put( "Id", id );
        }
        public Object invoke(Object proxy, Method method, Object[] args) throws Throwable {
                String methodName = method.getName();
                if ( methodName.startsWith( "set" ) ) {
                        String propertyName = methodName.substring( 3 );
                        data.put( propertyName, args[0] );
                }
                else if ( methodName.startsWith( "get" ) ) {
                        String propertyName = methodName.substring( 3 );
                        return data.get( propertyName );
                }
                else if ( "toString".equals( methodName ) ) {
                        return entityName + "#" + data.get( "Id" );
                }
                else if ( "hashCode".equals( methodName ) ) {
                        return new Integer( this.hashCode() );
                }
                return null;
        }
        public String getEntityName() {
                return entityName;
        }
        public HashMap getData() {
                return data;
        }
}
/**
 *
 */
public class ProxyHelper {
    public static String extractEntityName(Object object) {
        // Our custom java.lang.reflect.Proxy instances actually bundle
        // their appropriate entity name, so we simply extract it from there
        // if this represents one of our proxies; otherwise, we return null
        if ( Proxy.isProxyClass( object.getClass() ) ) {
            InvocationHandler handler = Proxy.getInvocationHandler( object );
            if ( DataProxyHandler.class.isAssignableFrom( handler.getClass() ) ) {
                DataProxyHandler myHandler = ( DataProxyHandler ) handler;
                return myHandler.getEntityName();
            }
        }
        return null;
    }
    // various other utility methods ....
}
/**
 * The EntityNameResolver implementation.
 * IMPL NOTE : An EntityNameResolver really defines a strategy for how entity names should be
 * resolved.  Since this particular impl can handle resolution for all of our entities we want to
 * take advantage of the fact that SessionFactoryImpl keeps these in a Set so that we only ever
 * have one instance registered.  Why?  Well, when it comes time to resolve an entity name,
 * Hibernate must iterate over all the registered resolvers.  So keeping that number down
 * helps that process be as speedy as possible.  Hence the equals and hashCode impls
 */
public class MyEntityNameResolver implements EntityNameResolver {
    public static final MyEntityNameResolver INSTANCE = new MyEntityNameResolver();
    public String resolveEntityName(Object entity) {
        return ProxyHelper.extractEntityName( entity );
    }
    public boolean equals(Object obj) {
        return getClass().equals( obj.getClass() );
    }
    public int hashCode() {
        return getClass().hashCode();
    }
}
public class MyEntityTuplizer extends PojoEntityTuplizer {
        public MyEntityTuplizer(EntityMetamodel entityMetamodel, PersistentClass mappedEntity) {
                super( entityMetamodel, mappedEntity );
        }
        public EntityNameResolver[] getEntityNameResolvers() {
                return new EntityNameResolver[] { MyEntityNameResolver.INSTANCE };
        }
    public String determineConcreteSubclassEntityName(Object entityInstance, SessionFactoryImplementor factory) {
        String entityName = ProxyHelper.extractEntityName( entityInstance );
        if ( entityName == null ) {
            entityName = super.determineConcreteSubclassEntityName( entityInstance, factory );
        }
        return entityName;
    }
    ...
}
        

Com o objetivo de registrar um org.hibernate.EntityNameResolver, os usuários devem tanto:

  1. Implementar um Tuplizer personalizado, implementando o método getEntityNameResolvers.

  2. Registrá-lo com o org.hibernate.impl.SessionFactoryImpl (que é a classe de implementação para org.hibernate.SessionFactory) usando o método registerEntityNameResolver.

O mapeamento de objeto/relacional é geralmente definido em um documento XML. O documento de mapeamento é criado para ser de leitura e editável manualmente. A linguagem do mapeamento é Java-centric, ou seja, os mapeamentos são construídos em torno de declarações de classe persistente e não de declarações de tabelas.

Note que, embora muitos usuários do Hibernate escolham gravar o XML manualmente, existem diversas ferramentas para gerar o documento de mapeamento, incluindo o XDoclet Middlegen e AndroMDA.

Vamos iniciar com um exemplo de mapeamento:


<?xml version="1.0"?>
<!DOCTYPE hibernate-mapping PUBLIC
      "-//Hibernate/Hibernate Mapping DTD 3.0//EN"
          "http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd">

<hibernate-mapping package="eg">

        <class name="Cat"
            table="cats"
            discriminator-value="C">

                <id name="id">
                        <generator class="native"/>
                </id>

                <discriminator column="subclass"
                     type="character"/>

                <property name="weight"/>

                <property name="birthdate"
                    type="date"
                    not-null="true"
                    update="false"/>

                <property name="color"
                    type="eg.types.ColorUserType"
                    not-null="true"
                    update="false"/>

                <property name="sex"
                    not-null="true"
                    update="false"/>

                <property name="litterId"
                    column="litterId"
                    update="false"/>

                <many-to-one name="mother"
                    column="mother_id"
                    update="false"/>

                <set name="kittens"
                    inverse="true"
                    order-by="litter_id">
                        <key column="mother_id"/>
                        <one-to-many class="Cat"/>
                </set>

                <subclass name="DomesticCat"
                    discriminator-value="D">

                        <property name="name"
                            type="string"/>

                </subclass>

        </class>

        <class name="Dog">
                <!-- mapping for Dog could go here -->
        </class>

</hibernate-mapping
>

Discutiremos agora o conteúdo deste documento de mapeamento. Iremos apenas descrever os elementos do documento e funções que são utilizadas pelo Hibernate em tempo de execução. O documento de mapeamento também contém algumas funções adicionais e opcionais além de elementos que afetam os esquemas de banco de dados exportados pela ferramenta de exportação de esquemas. (Por exemplo, o atributo not-null).

Todos os mapeamentos de XML devem declarar o doctype exibido. O DTD atual pode ser encontrado na URL abaixo, no diretório hibernate-x.x.x/src/org/ hibernate ou no hibernate3.jar. O Hibernate sempre irá procurar pelo DTD inicialmente no seu classpath. Se você tentar localizar o DTD usando uma conexão de internet, compare a declaração do seu DTD com o conteúdo do seu classpath.

O Hibernate irá primeiro tentar solucionar os DTDs em seus classpath. Isto é feito, registrando uma implementação org.xml.sax.EntityResolver personalizada com o SAXReader que ele utiliza para ler os arquivos xml. Este EntityResolver personalizado, reconhece dois nomes de espaço de sistemas Id diferentes:

Um exemplo de utilização do espaço de nome do usuário:


<?xml version="1.0"?>
<!DOCTYPE hibernate-mapping PUBLIC '-//Hibernate/Hibernate Mapping DTD 3.0//EN' 'http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd' [
<!ENTITY version "3.5.6-Final">
<!ENTITY today "September 15, 2010">

    <!ENTITY types SYSTEM "classpath://your/domain/types.xml">


]>


<hibernate-mapping package="your.domain">
    <class name="MyEntity">
        <id name="id" type="my-custom-id-type">
            ...
        </id>
    <class>
    &types;
</hibernate-mapping>

Onde types.xml é um recurso no pacote your.domain e contém um typedef personalizado.

Este elemento possui diversos atributos opcionais. Os atributos schema e catalog especificam que tabelas referenciadas neste mapeamento pertencem ao esquema e/ou ao catálogo nomeado. Se especificados, os nomes das tabelas serão qualificados no esquema ou catálogo dado. Se não, os nomes das tabelas não serão qualificados. O atributo default-cascade especifica qual estilo de cascata será considerado pelas propriedades e coleções que não especificarem uma função cascade. A função auto-import nos deixa utilizar nomes de classes não qualificados na linguagem de consulta, por padrão.

<hibernate-mapping
         schem(1)a="schemaName"
         catal(2)og="catalogName"
         defau(3)lt-cascade="cascade_style"
         defau(4)lt-access="field|property|ClassName"
         defau(5)lt-lazy="true|false"
         auto-(6)import="true|false"
         packa(7)ge="package.name"
 />

1

schema (opcional): O nome do esquema do banco de dados.

2

catalog (opcional): O nome do catálogo do banco de dados.

3

default-cascade (opcional – o padrão é none): Um estilo cascata padrão.

4

default-access (opcional – o padrão é property): A estratégia que o Hibernate deve utilizar para acessar todas as propridades. Pode ser uma implementação personalizada de PropertyAccessor.

5

default-lazy (opcional - o padrão é true): O valor padrão para atributos lazy não especificados da classe e dos mapeamentos de coleções.

6

auto-import (opcional - o padrão é true): Especifica se podemos usar nomes de classes não qualificados, das classes deste mapeamento, na linguagem de consulta.

7

package (opcional): Especifica um prefixo do pacote a ser considerado para nomes de classes não qualificadas no documento de mapeamento.

Se você tem duas classes persistentes com o mesmo nome (não qualificadas), você deve ajustar auto-import="false". Caso você tentar ajustar duas classes para o mesmo nome "importado", isto resultará numa exceção.

Observe que o elemento hibernate-mapping permite que você aninhe diversos mapeamentos de <class> persistentes, como mostrado abaixo. Entretanto, é uma boa prática (e esperado por algumas ferramentas) o mapeamento de apenas uma classe persistente simples (ou uma hierarquia de classes simples) em um arquivo de mapeamento e nomeá-la após a superclasse persistente, por exemplo: Cat.hbm.xml, Dog.hbm.xml, ou se estiver usando herança, Animal.hbm.xml.

Você pode declarar uma classe persistente utilizando o elemento class. Por exemplo:

<class
        name="(1)ClassName"
        table=(2)"tableName"
        discri(3)minator-value="discriminator_value"
        mutabl(4)e="true|false"
        schema(5)="owner"
        catalo(6)g="catalog"
        proxy=(7)"ProxyInterface"
        dynami(8)c-update="true|false"
        dynami(9)c-insert="true|false"
        select(10)-before-update="true|false"
        polymo(11)rphism="implicit|explicit"
        where=(12)"arbitrary sql where condition"
        persis(13)ter="PersisterClass"
        batch-(14)size="N"
        optimi(15)stic-lock="none|version|dirty|all"
        lazy="(16)true|false"
        entity(17)-name="EntityName"
        check=(18)"arbitrary sql check condition"
        rowid=(19)"rowid"
        subsel(20)ect="SQL expression"
        abstra(21)ct="true|false"
        node="element-name"
/>

1

name (opcional): O nome da classe Java inteiramente qualificado da classe persistente (ou interface). Se a função é ausente, assume-se que o mapeamento é para entidades não-POJO.

2

table (opcional – padrão para nomes de classes não qualificadas): O nome da sua tabela do banco de dados.

3

discriminator-value (opcional – padrão para o nome da classe): Um valor que distingue subclasses individuais, usadas para o comportamento polimórfico. Valores aceitos incluem null e not null.

4

mutable (opcional - valor padrão true): Especifica quais instâncias da classe são (ou não) mutáveis.

5

schema (opcional): Sobrepõe o nome do esquema especificado pelo elemento raíz <hibernate-mapping>.

6

catalog (opcional): Sobrepõe o nome do catálogo especificado pelo elemento raíz <hibernate-mapping>.

7

proxy (opcional): Especifica uma interface para ser utilizada pelos proxies de inicialização lazy. Você pode especificar o nome da própria classe.

8

dynamic-update (opcional, valor padrão false): Especifica que o SQL de UPDATE deve ser gerado em tempo de execução e conter apenas aquelas colunas cujos valores foram alterados.

9

dynamic-insert (opcional, valor padrão falso): Especifica que o SQL de INSERT deve ser gerado em tempo de execução e conter apenas aquelas colunas cujos valores não estão nulos.

10

select-before-update (opcional, valor padrão false): Especifica que o Hibernate nunca deve executar um SQL de UPDATE a não ser que seja certo que um objeto está atualmente modificado. Em certos casos (na verdade, apenas quando um objeto transiente foi associado a uma nova sessão utilizando update()), isto significa que o Hibernate irá executar uma instrução SQL de SELECT adicional para determinar se um UPDATE é necessário nesse momento.

11

polymorphism (opcional, padrão para implicit): Determina se deve ser utilizado a consulta polimórfica implícita ou explicitamente.

12

where (opicional): Especifica um comando SQL WHERE arbitrário para ser usado quando da recuperação de objetos desta classe.

13

persister (opcional): Especifica uma ClassPersister customizada.

14

batch-size (opcional, valor padrão 1) Especifica um "tamanho de lote" para a recuperação de instâncias desta classe pela identificação.

15

optimistic-lock (opcional, valor padrão version): Determina a estratégia de bloqueio.

(16)

lazy (opcional): A recuperação lazy pode ser completamente desabilitada, ajustando lazy="false".

(17)

entity-name (optional - defaults to the class name): Hibernate3 allows a class to be mapped multiple times, potentially to different tables. It also allows entity mappings that are represented by Maps or XML at the Java level. In these cases, you should provide an explicit arbitrary name for the entity. See Seção 4.4, “Modelos dinâmicos” and Capítulo 19, Mapeamento XML for more information.

(18)

check (opcional): Uma expressão SQL utilizada para gerar uma restrição de verificação de múltiplas linhas para a geração automática do esquema.

(19)

rowid (opcional): O Hibernate poder usar as então chamadas ROWIDs em bancos de dados que a suportam. Por exemplo, no Oracle, o Hibernate pode utilizar a coluna extra rowid para atualizações mais rápidas se você configurar esta opção para rowid. Um ROWID é uma implementação que representa de maneira detalhada a localização física de uma determinada tuple armazenada.

(20)

subselect (opcional): Mapeia uma entidade imutável e somente de leitura para um subconjunto do banco de dados. Útil se você quiser ter uma visão, ao invés de uma tabela. Veja abaixo para mais informações.

(21)

abstract (opcional): Utilizada para marcar superclasses abstratas em hierarquias <union-subclass>.

É perfeitamente aceitável uma classe persitente nomeada ser uma interface. Você deverá então declarar as classes implementadas desta interface utilizando o elemento <subclass>. Você pode persistir qualquer classe interna estática. Você deverá especificar o nome da classe usando a forma padrão, por exemplo: eg.Foo$Bar.

Classes imutáveis, mutable="false", não podem ser modificadas ou excluídas pela aplicação. Isso permite que o Hibernate aperfeiçoe o desempenho.

A função opcional proxy habilita a inicialização lazy das instâncias persistentes da classe. O Hibernate irá retornar CGLIB proxies como implementado na interface nomeada. O objeto persistente atual será carregado quando um método do proxy for invocado. Veja "Inicialização de Coleções e Proxies" abaixo.

Polimorfismo implícito significa que instâncias de uma classe serão retornadas por uma consulta que dá nome a qualquer superclasse ou interface e classe implementada, além das instâncias de qualquer subclasse da classe serão retornadas por uma consulta que nomeia a classe por si. Polimorfismo explícito significa que instâncias da classe serão retornadas apenas por consultas que explicitamente nomeiam a classe e que as consultas que nomeiam as classes irão retornar apenas instâncias de subclasses mapeadas dentro da declaração <class> como uma <subclass> ou <joined-subclass>. Para a maioria dos casos, o valor padrão polymorphism="implicit", é apropriado. Polimorfismo explicito é útil quando duas classes distintas estão mapeadas para a mesma tabela. Isso aceita uma classe "peso leve" que contém um subconjunto de colunas da tabela.

O atributo persister deixa você customizar a estratégia de persistência utilizada para a classe. Você pode, por exemplo, especificar sua própria subclasse do org.hibernate.persister.EntityPersister ou você pode criar uma implementação completamente nova da interface org.hibernate.persister.ClassPersister que implementa a persistência através de, por exemplo, chamadas a procedimentos armazenados, serialização de arquivos planos ou LDAP. Veja org.hibernate.test.CustomPersister para um exemplo simples de "persistência" para uma Hashtable.

Observe que as configurações dynamic-update e dynamic-insert não são herdadas pelas subclasses e assim podem também ser especificadas em elementos <subclass> ou <joined-subclass>. Estas configurações podem incrementar o desempenho em alguns casos, mas podem realmente diminuir o desempenho em outras.

O uso de select-before-update geralmente irá diminuir o desempenho. Ela é muito útil para prevenir que um trigger de atualização no banco de dados seja ativado desnecessariamente, se você reconectar um nó de uma instância desconectada em uma Session.

Se você ativar dynamic-update, você terá de escolher a estratégia de bloqueio otimista:

Nós realmente recomendamos que você utilize as colunas de versão/timestamp para o bloqueio otimista com o Hibernate. Esta é a melhor estratégia em relação ao desempenho e é a única estratégia que trata corretamente as modificações efetuadas em instâncias desconectadas (por exemplo, quando Session.merge() é utilizado).

Não há diferença entre uma visão e uma tabela para o mapeamento do Hibernate, e como esperado isto é transparente no nível do banco de dados, mesmo que alguns bancos de dados não suportam visões apropriadamente, especialmente com atualizações. Algumas vezes, você quer utilizar uma visão, mas não pode criá-la no banco de dados (por exemplo, com um esquema legado). Neste caso, você pode mapear uma entidade imutável e de somente leitura, para uma dada expressão de subseleção SQL:


<class name="Summary">
    <subselect>
        select item.name, max(bid.amount), count(*)
        from item
        join bid on bid.item_id = item.id
        group by item.name
    </subselect>
    <synchronize table="item"/>
    <synchronize table="bid"/>
    <id name="name"/>
    ...
</class
>

Declare as tabelas para sincronizar com esta entidade, garantindo que a auto-liberação ocorra corretamente, e que as consultas para esta entidade derivada não retornem dados desatualizados. O <subselect> está disponível tanto como um atributo como um elemento mapeado aninhado.

Classes mapeadas devem declarar a coluna de chave primária da tabela do banco de dados. Muitas classes irão também ter uma propriedade ao estilo Java-Beans declarando o identificador único de uma instância. O elemento <id> define o mapeamento desta propriedade para a chave primária.

<id
        name="(1)propertyName"
        type="(2)typename"
        column(3)="column_name"
        unsave(4)d-value="null|any|none|undefined|id_value"
        access(5)="field|property|ClassName">
        node="element-name|@attribute-name|element/@attribute|."

        <generator class="generatorClass"/>
</id
>

1

name (opcional): O nome da propriedade do identificador.

2

type (opcional): um nome que indica o tipo de Hibernate.

3

column (opcional – padrão para o nome da propridade): O nome coluna chave primária.

4

unsaved-value (opcional - padrão para um valor "sensível"): O valor da propriedade de identificação que indica que a instância foi novamente instanciada (unsaved), diferenciando de instâncias desconectadas que foram salvas ou carregadas em uma sessão anterior.

5

access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

Se a função name não for declarada, considera-se que a classe não tem a propriedade de identificação.

A função unsaved-value não é mais necessária no Hibernate 3.

Há uma declaração alternativa <composite-id> que permite o acesso à dados legados com chaves compostas. Nós realmente desencorajamos o uso deste para qualquer outra função.

O elemento filho opcional <generator> nomeia uma classe Java usada para gerar identificadores únicos para instâncias de uma classe persistente. Se algum parâmetro é requerido para configurar ou inicializar a instância geradora, eles são passados utilizando o elemento <param>.


<id name="id" type="long" column="cat_id">
        <generator class="org.hibernate.id.TableHiLoGenerator">
                <param name="table"
>uid_table</param>
                <param name="column"
>next_hi_value_column</param>
        </generator>
</id
>

Todos os geradores implementam a interface org.hibernate.id.IdentifierGenerator. Esta é uma interface bem simples. Algumas aplicações podem prover suas próprias implementações especializadas, entretanto, o Hibernate disponibiliza um conjunto de implementações internamente. Há nomes de atalhos para estes geradores internos, conforme segue abaixo:

increment

gera identificadores dos tipos long, short ou int que são únicos apenas quando nenhum outro processo está inserindo dados na mesma tabela. Não utilize em ambientes de cluster.

identity

suporta colunas de identidade em DB2, MySQL, Servidor MS SQL, Sybase e HypersonicSQL. O identificador retornado é do tipo long, short ou int.

sequence

utiliza uma seqüência em DB2, PostgreSQL, Oracle, SAP DB, McKoi ou um gerador no Interbase. O identificador de retorno é do tipo long, short ou int.

hilo

utiliza um algoritmo hi/lo para gerar de forma eficiente identificadores do tipo long, short ou int, a partir de uma tabela e coluna fornecida (por padrão hibernate_unique_key e next_hi) como fonte para os valores hi. O algoritmo hi/lo gera identificadores que são únicos apenas para um banco de dados específico.

seqhilo

utiliza um algoritmo hi/lo para gerar de forma eficiente identificadores do tipo long, short ou int, a partir de uma seqüência de banco de dados fornecida.

uuid

utiliza um algorítimo UUID de 128-bits para gerar identificadores do tipo string, únicos em uma rede (o endereço IP é utilizado). O UUID é codificado como um string de dígitos hexadecimais de tamanho 32.

guid

utiliza um string GUID gerado pelo banco de dados no Servidor MS SQL e MySQL.

native

seleciona entre identity, sequenceou hilo dependendo das capacidades do banco de dados utilizado.

assigned

deixa a aplicação definir um identificador para o objeto antes que o save() seja chamado. Esta é a estratégia padrão caso nenhum elemento <generator> seja especificado.

select

retorna a chave primária recuperada por um trigger do banco de dados, selecionando uma linha pela chave única e recuperando o valor da chave primária.

foreign

utiliza o identificador de um outro objeto associado. Normalmente utilizado em conjunto com uma associação de chave primária do tipo <one-to-one>.

sequence-identity

uma estratégia de geração de seqüência especializada que use uma seqüência de banco de dados para a geração de valor atual, mas combina isto com JDBC3 getGeneratedKeys para de fato retornar o valor do identificador gerado como parte da execução de instrução de inserção. Esta estratégia é somente conhecida para suportar drivers da Oracle 10g, focados em JDK 1.4. Note que os comentários sobre estas instruções de inserção estão desabilitados devido a um bug nos drivers da Oracle.

Iniciando com a liberação 3.2.3, existem dois novos geradores que representam uma reavaliação de dois diferentes aspectos da geração identificadora. O primeiro aspecto é a portabilidade do banco de dados, o segundo é a otimização. A otimização significa que você não precisa questionar o banco de dados a cada solicitação para um novo valor de identificador. Estes dois geradores possuem por intenção substituir alguns dos geradores nomeados acima, começando em 3.3.x. No entanto, eles estão incluídos nas liberações atuais e podem ser referenciados pelo FQN.

A primeira destas novas gerações é a org.hibernate.id.enhanced.SequenceStyleGenerator que primeiramente é uma substituição para o gerador sequence e, segundo, um melhor gerador de portabilidade que o native. Isto é devido ao native normalmente escolher entre identity e sequence, que são semânticas extremamente diferentes das quais podem causar problemas súbitos em portabilidade de observação de aplicativos. No entanto, o org.hibernate.id.enhanced.SequenceStyleGenerator atinge a portabilidade numa maneira diferente. Ele escolhe entre uma tabela ou uma seqüência no banco de dados para armazenar seus valores de incrementação, dependendo nas capacidades do dialeto sendo usado. A diferença entre isto e o native é que o armazenamento baseado na tabela e seqüência possuem exatamente a mesma semântica. Na realidade, as seqüências são exatamente o que o Hibernate tenta imitar com os próprios geradores baseados na tabela. Este gerador possui um número de parâmetros de configuração:

O segundo destes novos geradores é o org.hibernate.id.enhanced.TableGenerator, que primeiramente é uma substituição para o gerador table, mesmo que isto funcione muito mais como um org.hibernate.id.MultipleHiLoPerTableGenerator, e segundo, como uma reimplementação do org.hibernate.id.MultipleHiLoPerTableGenerator que utiliza a noção dos otimizadores pugláveis. Basicamente, este gerador define uma tabela capacitada de manter um número de valores de incremento simultâneo pelo uso múltiplo de filas de chaves distintas. Este gerador possui um número de parâmetros de configuração.

  • table_name (opcional - padrão para hibernate_sequences): O nome da tabela a ser usado.

  • value_column_name (opcional - padrão para next_val): o nome da coluna na tabela que é usado para manter o valor.

  • segment_column_name (opcional - padrão para sequence_name) O nome da coluna da tabela que é usado para manter a "chave de segmento". Este é o valor que identifica qual valor de incremento a ser usado.

  • base (opcional - padrão para default) O valor da "chave de segmento" para o segmento pelo qual nós queremos obter os valores de incremento para este gerador.

  • segment_value_length (opcional - padrão para 255): Usado para a geração do esquema. O tamanho da coluna para criar esta coluna de chave de segmento.

  • initial_value (opcional - valor padrão para 1): O valor inicial a ser restaurado a partir da tabela.

  • increment_size (opcional - padrão para 1): O valor pelo qual as chamadas subseqüentes para a tabela devem diferir-se.

  • optimizer (optional - defaults to ): See Seção 5.1.6, “Otimização do Gerador de Identificação”

For identifier generators that store values in the database, it is inefficient for them to hit the database on each and every call to generate a new identifier value. Instead, you can group a bunch of them in memory and only hit the database when you have exhausted your in-memory value group. This is the role of the pluggable optimizers. Currently only the two enhanced generators (Seção 5.1.5, “Aprimoração dos geradores de identificador” support this operation.

  • none (geralmente este é o padrão, caso nenhum otimizador for especificado): isto não executará quaisquer otimizações e alcançará o banco de dados para cada e toda solicitação.

  • hilo: aplica-se ao algoritmo em volta dos valores restaurados do banco de dados. Espera-se que os valores a partir do banco de dados para este otimizador sejam seqüenciais. Os valores restaurados a partir da estrutura do banco de dados para este otimizador indica um "número de grupo". O increment_size é multiplicado pelo valor em memória para definir um grupo "hi value".

  • pooled: assim como o caso do hilo, este otimizador tenta minimizar o número de tentativas no banco de dados. No entanto, nós simplesmente implementamos o valor de inicialização para o "próximo grupo" na estrutura do banco de dados ao invés do valor seqüencial na combinação com um algoritmo de agrupamento em memória. Neste caso, o increment_size refere-se aos valores de entrada a partir do banco de dados.


<composite-id
        name="propertyName"
        class="ClassName"
        mapped="true|false"
        access="field|property|ClassName">
        node="element-name|."

        <key-property name="propertyName" type="typename" column="column_name"/>
        <key-many-to-one name="propertyName" class="ClassName" column="column_name"/>
        ......
</composite-id
>

Uma tabela com uma chave composta, pode ser mapeada com múltiplas propriedades da classe como propriedades de identificação. O elemento <composite-id> aceita o mapeamento da propriedade <key-property> e mapeamentos <key-many-to-one>como elementos filhos.


<composite-id>
        <key-property name="medicareNumber"/>
        <key-property name="dependent"/>
</composite-id
>

A classe persistente precisa substituir equals() e hashCode() para implementar identificadores compostos igualmente. E precisa também implementar Serializable.

Infelizmente, esta solução para um identificador composto significa que um objeto persistente é seu próprio identificador. Não há outro "handle" conveniente a não ser o próprio objeto. Você mesmo precisa instanciar uma instância de outra classe persistente e preencher suas propriedades de identificação antes que você possa dar um load() para o estado persistente associado com uma chave composta. Nós chamamos esta solução de identificador composto incorporado e não aconselhamos para aplicações sérias.

Uma segunda solução seria chamar de identificador composto mapped quando a propriedades de identificação nomeadas dentro do elemento <composite-id> estão duplicadas tanto na classe persistente como em uma classe de identificação separada.


<composite-id class="MedicareId" mapped="true">
        <key-property name="medicareNumber"/>
        <key-property name="dependent"/>
</composite-id
>

No exemplo, ambas as classes de identificadores compostas, MedicareId, e a própria classe entidade possuem propriedades nomeadas medicareNumber e dependent. A classe identificadora precisa sobrepor equals() e hashCode() e implementar Serializable. A desvantagem desta solução é óbvia: duplicação de código.

As seguintes funções são utilizadas para especificar o mapeamento de um identificador composto:

We will describe a third, even more convenient approach, where the composite identifier is implemented as a component class in Seção 8.4, “Componentes como identificadores compostos”. The attributes described below apply only to this alternative approach:

  • name (opcional, requerida para esta abordagem): Uma propriedade do tipo componente que armazena o identificador composto. Para maiores informações, por favor consulte o capítulo 9.

  • access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

  • class (opcional - valor padrão para o tipo de propriedade determinando por reflexão): A classe componente utilizada como um identificador composto. Por favor consulte a próxima seção para maiores informações.

Esta terceira abordagem, um componente identificador, é a que nós recomendamos para a maioria das aplicações.

O elemento <discriminator> é necessário para persistência polimórfica utilizando a estratégia de mapeamento de tabela-por-classe-hierárquica e declara uma coluna discriminadora da tabela. A coluna discriminadora contém valores de marcação que informam à camada de persistência qual subclasse instanciar para uma linha em específico. Um restrito conjunto de tipos que podem ser utilizados: string, character, integer, byte, short, boolean, yes_no, true_false.

<discriminator
        column(1)="discriminator_column"
        type="(2)discriminator_type"
        force=(3)"true|false"
        insert(4)="true|false"
        formul(5)a="arbitrary sql expression"
/>

1

column (opcional - padrão para class): O nome da coluna discriminadora.

2

type (opcional - padrão para string): O nome que indica o tipo Hibernate.

3

force (opcional - valor padrão false): "Força" o Hibernate a especificar valores discriminadores permitidos mesmo quando recuperando todas as instâncias da classe raíz.

4

insert (opcional - valor padrão para true) Ajuste para false se sua coluna discriminadora também fizer parte do identificador composto mapeado. (Isto informa ao Hibernate para não incluir a coluna em comandos SQL INSERTs).

5

formula (opcional): Uma expressão SQL arbitrária que é executada quando um tipo tem que ser avaliado. Permite discriminação baseada em conteúdo.

Valores atuais de uma coluna discriminada são especificados pela função discriminator-value da <class> e elementos da <subclass>.

O atributo force é útil (apenas) em tabelas contendo linhas com valores discriminadores "extras" que não estão mapeados para uma classe persistente. Este não é geralmente o caso.

Usando o atributo formula você pode declarar uma expressão SQL arbitrária que será utilizada para avaliar o tipo de uma linha. Por exemplo:


<discriminator
    formula="case when CLASS_TYPE in ('a', 'b', 'c') then 0 else 1 end"
    type="integer"/>

O elemento <version> é opcional e indica que a tabela possui dados versionados. Isto é particularmente útil se você planeja utilizar transações longas. Veja abaixo maiores informações:

<version
        column(1)="version_column"
        name="(2)propertyName"
        type="(3)typename"
        access(4)="field|property|ClassName"
        unsave(5)d-value="null|negative|undefined"
        genera(6)ted="never|always"
        insert(7)="true|false"
        node="element-name|@attribute-name|element/@attribute|."
/>

1

column (opcional - tem como padrão o nome da propriedade name): O nome da coluna mantendo o número da versão.

2

name: O nome da propriedade da classe persistente.

3

type (opcional - padrão para integer): O tipo do número da versão.

4

access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

5

unsaved-value (opcional – valor padrão para undefined ): Um valor para a propriedade versão que indica que uma instância foi instanciada recentemente (unsaved), distinguindo de instâncias desconectadas que foram salvas ou carregadas em sessões anteriores. (undefined especifica que o valor da propriedade de identificação deve ser utilizado).

6

generated (opcional - valor padrão never): Especifica que este valor de propriedade da versão é na verdade gerado pelo banco de dados. Veja o generated properties para maiores informações.

7

insert (opcional - padrão para true): Especifica se a coluna de versão deve ser incluída na instrução de inserção do SQL. Pode ser configurado como false se a coluna do banco de dados estiver definida com um valor padrão de 0.

Números de versão podem ser dos tipos Hibernate long, integer, short, timestamp ou calendar.

A versão ou timestamp de uma propriedade nunca deve ser nula para uma instância desconectada, assim o Hibernate irá identificar qualquer instância com uma versão nula ou timestamp como transiente, não importando qual outra estratégia unsaved-value tenha sido especificada. A declaração de uma versão nula ou a propriedade timestamp é um caminho fácil para tratar problemas com reconexões transitivas no Hibernate, especialmente úteis para pessoas utilizando identificadores atribuídos ou chaves compostas.

O elemento opcional <timestamp> indica que uma tabela contém dados em timestamp. Isso tem por objetivo dar uma alternativa para versionamento. Timestamps são por natureza uma implementação menos segura do bloqueio otimista. Entretanto, algumas vezes a aplicação pode usar timestamps em outros caminhos.

<timestamp
        column(1)="timestamp_column"
        name="(2)propertyName"
        access(3)="field|property|ClassName"
        unsave(4)d-value="null|undefined"
        source(5)="vm|db"
        genera(6)ted="never|always"
        node="element-name|@attribute-name|element/@attribute|."
/>

1

column (opcional - padrão para o nome da propriedade): O nome da coluna que mantém o timestamp.

2

name: O nome da propriedade no estilo JavaBeans do tipo Date ou Timestamp da classe persistente.

3

access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

4

unsaved-value (opcional - padrão para null): Um valor de propriedade da versão que indica que uma instância foi recentemente instanciada (unsaved), distinguindo-a de instâncias desconectadas que foram salvas ou carregadas em sessões prévias. Undefined especifica que um valor de propriedade de identificação deve ser utilizado.

5

source (opcional - padrão para vm): De onde o Hibernate deve recuperar o valor timestamp? Do banco de dados ou da JVM atual? Timestamps baseados em banco de dados levam a um overhead porque o Hibernate precisa acessar o banco de dados para determinar o "próximo valor", mas é mais seguro para uso em ambientes de cluster. Observe também, que nem todos os Dialects suportam a recuperação do carimbo de data e hora atual do banco de dados, enquanto outros podem não ser seguros para utilização em bloqueios, pela falta de precisão (Oracle 8, por exemplo).

6

generated (opcional - padrão para never): Especifica que o valor da propriedade timestamp é gerado pelo banco de dados. Veja a discussão do generated properties para maiores informações.

O elemento <property> declara uma propriedade de estilo JavaBean de uma classe.

<property
        name="(1)propertyName"
        column(2)="column_name"
        type="(3)typename"
        update(4)="true|false"
        insert(4)="true|false"
        formul(5)a="arbitrary SQL expression"
        access(6)="field|property|ClassName"
        lazy="(7)true|false"
        unique(8)="true|false"
        not-nu(9)ll="true|false"
        optimi(10)stic-lock="true|false"
        genera(11)ted="never|insert|always"
        node="element-name|@attribute-name|element/@attribute|."
        index="index_name"
        unique_key="unique_key_id"
        length="L"
        precision="P"
        scale="S"
/>

1

name: o nome da propriedade, iniciando com letra minúscula.

2

column (opcional - padrão para o nome da propriedade): O nome da coluna mapeada do banco de dados. Isto pode também ser especificado pelo(s) elemento(s) <column> aninhados.

3

type (opcional): um nome que indica o tipo de Hibernate.

4

update, insert (opcional - padrão para true): especifica que as colunas mapeadas devem ser incluídas nas instruções SQL de UPDATE e/ou INSERT. Ajustar ambas para false permite uma propridade "derivada" pura, cujo valor é inicializado de outra propriedade, que mapeie a mesma coluna(s) ou por uma disparo ou outra aplicação.

5

formula (opcional): uma instrução SQL que definie o valor para uma propriedade calculada. Propriedades calculadas não possuem uma coluna de mapeamento para elas.

6

access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

7

lazy (opcional - padrão para false): Especifica que esta propriedade deve ser atingida de forma lenta quando a instância da variável é acessada pela primeira vez. Isto requer instrumentação bytecode em tempo de criação.

8

unique (opcional): Habilita a geração de DDL de uma única restrição para as colunas. Da mesma forma, permita que isto seja o alvo de uma property-ref.

9

not-null (opcional): Habilita a geração de DDL de uma restrição de nulidade para as colunas.

10

optimistic-lock (opcional - padrão para true): Especifica se mudanças para esta propriedade requerem ou não bloqueio otimista. Em outras palavras, determina se um incremento de versão deve ocorrer quando esta propriedade está suja.

11

generated (opcional - padrão para never): Especifica que o valor da propriedade é na verdade gerado pelo banco de dados. Veja a discussão do generated properties para maiores informações.

typename pode ser:

Se você não especificar um tipo, o Hibernate irá utilizar reflexão sobre a propriedade nomeada para ter uma idéia do tipo de Hibernate correto. O Hibernate tentará interpretar o nome da classe retornada, usando as regras 2, 3 e 4 nesta ordem. Em certos casos, você ainda precisará do atributo type. Por exemplo, para distinguir entre Hibernate.DATE e Hibernate.TIMESTAMP, ou para especificar um tipo customizado.

A função access permite que você controle como o Hibernate irá acessar a propriedade em tempo de execução. Por padrão, o Hibernate irá chamar os métodos get/set da propriedades. Se você especificar access="field", o Hibernate irá bipassar os metodos get/set, acessando o campo diretamente, usando reflexão. Você pode especificar sua própria estratégia para acesso da propriedade criando uma classe que implemente a interface org.hibernate.property.PropertyAccessor.

Um recurso especialmente poderoso é o de propriedades derivadas. Estas propriedades são por definição somente leitura, e o valor da propriedade é calculado em tempo de execução. Você declara este cálculo como uma expressão SQL, que traduz para cláusula SELECT de uma subconsulta da consulta SQL que carrega a instância:



<property name="totalPrice"
    formula="( SELECT SUM (li.quantity*p.price) FROM LineItem li, Product p
                WHERE li.productId = p.productId
                AND li.customerId = customerId
                AND li.orderNumber = orderNumber )"/>

Observe que você pode referenciar as entidades da própria tabela, através da não declaração de um alias para uma coluna particular. Isto seria o customerId no exemplo dado. Observe também que você pode usar o mapeamento de elemento aninhado <formula>, se você não gostar de usar o atributo.

Uma associação ordinária para outra classe persistente é declarada usando o elemento many-to-one. O modelo relacional é uma associação muitos para um: uma chave exterior de uma tabela referenciando as colunas da chave primária da tabela destino.

<many-to-one
        name="(1)propertyName"
        column(2)="column_name"
        class=(3)"ClassName"
        cascad(4)e="cascade_style"
        fetch=(5)"join|select"
        update(6)="true|false"
        insert(6)="true|false"
        proper(7)ty-ref="propertyNameFromAssociatedClass"
        access(8)="field|property|ClassName"
        unique(9)="true|false"
        not-nu(10)ll="true|false"
        optimi(11)stic-lock="true|false"
        lazy="(12)proxy|no-proxy|false"
        not-fo(13)und="ignore|exception"
        entity(14)-name="EntityName"
        formul(15)a="arbitrary SQL expression"
        node="element-name|@attribute-name|element/@attribute|."
        embed-xml="true|false"
        index="index_name"
        unique_key="unique_key_id"
        foreign-key="foreign_key_name"
/>

1

name: O nome da propriedade.

2

column (opcional): O nome da coluna da chave exterior. Isto pode também ser especificado através de elementos aninhados <column>.

3

class (opcional – padrão para o tipo de propriedade determinado pela reflexão): O nome da classe associada.

4

cascade (opcional): Especifica qual operação deve ser cascateada do objeto pai para o objeto associado.

5

fetch (opcional - padrão para select): Escolhe entre recuperação da união exterior ou recuperação seqüencial de seleção.

6

update, insert (opcional - valor padrão true): especifica que as colunas mapeadas devem ser incluídas em instruções SQL de UPDATE e/ou INSERT. Com o ajuste de ambas para false você permite uma associação "derivada" pura cujos valores são inicializados de algumas outras propriedades que mapeiam a(s) mesma(s) coluna(s) ou por um trigger ou outra aplicação.

7

property-ref: (opcional) O nome de uma propriedade da classe associada que esteja unida à esta chave exterior. Se não for especificada, a chave primária da classe associada será utilizada.

8

access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

9

unique (opcional): Habilita a geração DDL de uma restrição única para a coluna da chave exterior. Além disso, permite ser o alvo de uma property-ref. Isso torna a multiplicidade da associação efetivamente um para um.

10

not-null (opcional): Habilita a geração DDL de uma restrição de nulidade para as colunas de chaves exteriores.

11

optimistic-lock (opcional - padrão para true): Especifica se mudanças para esta propriedade requerem ou não bloqueio otimista. Em outras palavras, determina se um incremento de versão deve ocorrer quando esta propriedade está suja.

12

lazy(opcional – padrão para proxy): Por padrão, associações de ponto único são envoltas em um proxie. lazy="no-proxy" especifica que a propriedade deve ser trazida de forma tardia quando a instância da variável é acessada pela primeira vez. Isto requer instrumentação bytecode em tempo de criação. O lazy="false" especifica que a associação será sempre procurada.

13

not-found (opcional - padrão para exception): Especifica como as chaves exteriores que informam que linhas que estejam faltando serão manuseadas. O ignore tratará a linha faltante como uma associação nula.

14

entity-name (opcional): O nome da entidade da classe associada.

15

formula (optional): Uma instrução SQL que define um valor para uma chave exterior computed.

Setting a value of the cascade attribute to any meaningful value other than none will propagate certain operations to the associated object. The meaningful values are divided into three categories. First, basic operations, which include: persist, merge, delete, save-update, evict, replicate, lock and refresh; second, special values: delete-orphan; and third, all comma-separated combinations of operation names: cascade="persist,merge,evict" or cascade="all,delete-orphan". See Seção 10.11, “Persistência Transitiva” for a full explanation. Note that single valued, many-to-one and one-to-one, associations do not support orphan delete.

Segue abaixo uma amostra de uma típica declaração many-to-one:


<many-to-one name="product" class="Product" column="PRODUCT_ID"/>

O atributo property-ref deve apenas ser usado para mapear dados legados onde uma chave exterior se refere à uma chave exclusiva da tabela associada que não seja a chave primária. Este é um modelo relacional desagradável. Por exemplo, suponha que a classe Product tenha um número seqüencial exclusivo, que não seja a chave primária. O atributo unique controla a geração de DDL do Hibernate com a ferramenta SchemaExport.


<property name="serialNumber" unique="true" type="string" column="SERIAL_NUMBER"/>

Então o mapeamento para OrderItem poderia usar:


<many-to-one name="product" property-ref="serialNumber" column="PRODUCT_SERIAL_NUMBER"/>

No entanto, isto não é recomendável.

Se a chave exclusiva referenciada engloba múltiplas propriedades da entidade associada, você deve mapear as propriedades referenciadas dentro de um elemento chamado <properties>

Se a chave exclusiva referenciada é a propriedade de um componente, você pode especificar um caminho para a propriedade:


<many-to-one name="owner" property-ref="identity.ssn" column="OWNER_SSN"/>

Uma associação um-pra-um para outra classe persistente é declarada usando um elemento one-to-one .

<one-to-one
        name="(1)propertyName"
        class=(2)"ClassName"
        cascad(3)e="cascade_style"
        constr(4)ained="true|false"
        fetch=(5)"join|select"
        proper(6)ty-ref="propertyNameFromAssociatedClass"
        access(7)="field|property|ClassName"
        formul(8)a="any SQL expression"
        lazy="(9)proxy|no-proxy|false"
        entity(10)-name="EntityName"
        node="element-name|@attribute-name|element/@attribute|."
        embed-xml="true|false"
        foreign-key="foreign_key_name"
/>

1

name: O nome da propriedade.

2

class (opcional – padrão para o tipo de propriedade determinado pela reflexão): O nome da classe associada.

3

cascade (opcional): Especifica qual operação deve ser cascateada do objeto pai para o objeto associado.

4

constrained (opcional): Especifica que uma restrição de chave exterior na chave primária da tabela mapeada referencia a tabela da classe associada. Esta opção afeta a ordem em que save() e delete() são cascateadas, e determina se a associação pode sofrer o proxie. Isto também é usado pela ferramenta schema export.

5

fetch (opcional - padrão para select): Escolhe entre recuperação da união exterior ou recuperação seqüencial de seleção.

6

property-ref(opcional): O nome da propriedade da classe associada que é ligada à chave primária desta classe. Se não for especificada, a chave primária da classe associada é utilizada.

7

access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

8

formula (opcional): Quase todas associações um-pra-um mapeiam para a chave primária da entidade dona. Caso este não seja o caso, você pode especificar uma outra coluna, colunas ou expressões para unir utilizando uma fórmula SQL. Veja org.hibernate.test.onetooneformula para exemplo.

9

lazy (opcional – valor padrão proxy): Por padrão, as associações de ponto único estão em proxy. lazy="no-proxy" especifica que a propriedade deve ser recuperada de forma preguiçosa quando a variável da instância for acessada pela primeira vez. Isto requer instrumentação de bytecode de tempo de construção. lazy="false" especifica que a associação terá sempre uma busca antecipada (eager fetched). Note que se constrained="false", será impossível efetuar o proxing e o Hibernate irá realizar uma busca antecipada na associação.

10

entity-name (opcional): O nome da entidade da classe associada.

Existem duas variedades de associações um-pra-um:

Associações de chave primária não necessitam de uma coluna extra de tabela. Se duas linhas forem relacionadas pela associação, então as duas linhas da tabela dividem o mesmo valor da chave primária. Assim, se você quiser que dois objetos sejam relacionados por uma associação de chave primária, você deve ter certeza que foram atribuídos com o mesmo valor identificador.

Para uma associação de chave primária, adicione os seguintes mapeamentos em Employee e Person, respectivamente:


<one-to-one name="person" class="Person"/>

<one-to-one name="employee" class="Employee" constrained="true"/>

Agora devemos assegurar que as chaves primárias de linhas relacionadas nas tabelas PERSON e EMPLOYEE são iguais. Nós usamos uma estratégia especial de geração de identificador do Hibernate chamada foreign:


<class name="person" table="PERSON">
    <id name="id" column="PERSON_ID">
        <generator class="foreign">
            <param name="property"
>employee</param>
        </generator>
    </id>
    ...
    <one-to-one name="employee"
        class="Employee"
        constrained="true"/>
</class
>

Uma nova instância de Person é atribuída com o mesmo valor da chave primária da instância de Employee referenciada com a propriedade employee daquela Person.

Alternativamente, uma chave exterior com uma restrição única, de Employee para Person, pode ser expressada como:


<many-to-one name="person" class="Person" column="PERSON_ID" unique="true"/>

Esta associação pode ser feita de forma bi-direcional adicionando o seguinte no mapeamento de Person:


<one-to-one name="employee" class="Employee" property-ref="person"/>

O elemento <component> mapeia propriedades de um objeto filho para colunas da tabela de uma classe pai. Os componentes podem, um após o outro, declarar suas próprias propriedades, componentes ou coleções. Veja "Components" abaixo:

<component
        name="(1)propertyName"
        class=(2)"className"
        insert(3)="true|false"
        update(4)="true|false"
        access(5)="field|property|ClassName"
        lazy="(6)true|false"
        optimi(7)stic-lock="true|false"
        unique(8)="true|false"
        node="element-name|."
>

        <property ...../>
        <many-to-one .... />
        ........
</component
>

1

name: O nome da propriedade.

2

class (opcional – padrão para o tipo de propriedade determinada por reflection): O nome da classe (filha) do componente.

3

insert: As colunas mapeadas aparecem nos SQL de INSERTs?

4

update: As colunas mapeadas aparecem nos SQL de UPDATEs?

5

access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

6

lazy (opcional - padrão para false): Especifica que este componente deve ter uma busca lazy quando a função for acessada pela primeira vez. Isto requer instrumentação bytecode de tempo de construção.

7

optimistic-lock (opcional – padrão para true): Especifica que atualizações para este componente requerem ou não aquisição de um bloqueio otimista. Em outras palavras, determina se uma versão de incremento deve ocorrer quando esta propriedade estiver suja.

8

unique (opcional – valor padrão false): Especifica que existe uma unique restrição em todas as colunas mapeadas do componente.

A tag filha <property> acrescenta a propriedade de mapeamento da classe filha para colunas de uma tabela.

O elemento <component> permite um sub-elemento <parent> mapeie uma propriedade da classe do componente como uma referencia de volta para a entidade que o contém.

The <dynamic-component> element allows a Map to be mapped as a component, where the property names refer to keys of the map. See Seção 8.5, “Componentes Dinâmicos” for more information.

O elemento <properties> permite a definição de um grupo com nome, lógico de propriedades de uma classe. A função mais importante do construtor é que ele permite que a combinação de propriedades seja o objetivo de uma property-ref. É também um modo conveninente para definir uma restrição única de múltiplas colunas. Por exemplo:

<properties
        name="(1)logicalName"
        insert(2)="true|false"
        update(3)="true|false"
        optimi(4)stic-lock="true|false"
        unique(5)="true|false"
>

        <property ...../>
        <many-to-one .... />
        ........
</properties
>

1

name: O nome lógico do agrupamento. Isto não é o nome atual de propriedade.

2

insert: As colunas mapeadas aparecem nos SQL de INSERTs?

3

update: As colunas mapeadas aparecem nos SQL de UPDATEs?

4

optimistic-lock (opcional – padrão para true): Especifica que atualizações para estes componentes requerem ou não aquisição de um bloqueio otimista. Em outras palavras, determina se uma versão de incremento deve ocorrer quando estas propriedades estiverem sujas.

5

unique (opcional – valor padrão false): Especifica que existe uma unique restrição em todas as colunas mapeadas do componente.

Por exemplo, se temos o seguinte mapeamento de <properties>:


<class name="Person">
    <id name="personNumber"/>

    ...
    <properties name="name"
            unique="true" update="false">
        <property name="firstName"/>
        <property name="initial"/>
        <property name="lastName"/>
    </properties>
</class
>

Então podemos ter uma associação de dados legados que referem a esta chave exclusiva da tabela Person, ao invés de se referirem a chave primária:


<many-to-one name="person"
         class="Person" property-ref="name">
    <column name="firstName"/>
    <column name="initial"/>
    <column name="lastName"/>
</many-to-one
>

Nós não recomendamos o uso deste tipo de coisa fora do contexto de mapeamento de dados legados.

Alternativamente, cada subclasse pode ser mapeada para sua própria tabela. Isto é chamado estratégia de mapeamento de tabela-por-subclasse. O estado herdado é devolvido por associação com a tabela da superclasse. Nós usamos o elemento <joined-subclass>. Por exemplo:

<joined-subclass
        name="(1)ClassName"
        table=(2)"tablename"
        proxy=(3)"ProxyInterface"
        lazy="(4)true|false"
        dynamic-update="true|false"
        dynamic-insert="true|false"
        schema="schema"
        catalog="catalog"
        extends="SuperclassName"
        persister="ClassName"
        subselect="SQL expression"
        entity-name="EntityName"
        node="element-name">

        <key .... >

        <property .... />
        .....
</joined-subclass
>

1

name: O nome de classe completamente qualificada da subclasse.

2

table: O nome da tabela da subclasse.

3

proxy (opcional): Especifica a classe ou interface que usará os proxies de inicialização lazy.

4

lazy (opcional, padrão para true): Configurar lazy="false" desabilitará o uso de inicialização lazy.

A coluna discriminadora não é requerida para esta estratégia de mapeamento. Cada subclasse deve declarar uma coluna de tabela com o identificador do objeto usando o elemento <key>. O mapeamento no início do capítulo poderia ser re-escrito assim:


<?xml version="1.0"?>
<!DOCTYPE hibernate-mapping PUBLIC
        "-//Hibernate/Hibernate Mapping DTD//EN"
        "http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd">

<hibernate-mapping package="eg">

        <class name="Cat" table="CATS">
                <id name="id" column="uid" type="long">
                        <generator class="hilo"/>
                </id>
                <property name="birthdate" type="date"/>
                <property name="color" not-null="true"/>
                <property name="sex" not-null="true"/>
                <property name="weight"/>
                <many-to-one name="mate"/>
                <set name="kittens">
                        <key column="MOTHER"/>
                        <one-to-many class="Cat"/>
                </set>
                <joined-subclass name="DomesticCat" table="DOMESTIC_CATS">
                    <key column="CAT"/>
                    <property name="name" type="string"/>
                </joined-subclass>
        </class>

        <class name="eg.Dog">
                <!-- mapping for Dog could go here -->
        </class>

</hibernate-mapping
>

For information about inheritance mappings see Capítulo 9, Mapeamento de Herança .

Usando o elemento <join>>, é possível mapear propriedades de uma classe para várias tabelas que possuem uma relação um por um. Por exemplo:

<join
        table=(1)"tablename"
        schema(2)="owner"
        catalo(3)g="catalog"
        fetch=(4)"join|select"
        invers(5)e="true|false"
        option(6)al="true|false">

        <key ... />

        <property ... />
        ...
</join
>

1

table: O nome da tabela associada.

2

schema (opcional): Sobrepõe o nome do esquema especificado pelo elemento raíz <hibernate-mapping>.

3

catalog (opcional): Sobrepõe o nome do catálogo especificado pelo elemento raíz <hibernate-mapping>.

4

fetch(opcional – valor padrão join): Se ajustado para join, o padrão, o Hibernate irá usar uma união interna para restaurar um join definido por uma classe ou suas subclasses e uma união externa para um join definido por uma subclasse. Se ajustado para select, então o Hibernate irá usar uma seleção seqüencial para um <join> definida numa subclasse, que será emitido apenas se uma linha representar uma instância da subclasse. Uniões internas ainda serão utilizadas para restaurar um <join> definido pela classe e suas superclasses.

5

inverse (opcional – padrão para false): Se habilitado, o Hibernate não tentará inserir ou atualizar as propriedades definidas por esta união.

6

optional (opcional – padrão para false): Se habilitado, o Hibernate irá inserir uma linha apenas se as propriedades, definidas por esta junção, não forem nulas. Isto irá sempre usar uma união externa para recuperar as propriedades.

Por exemplo, a informação de endereço para uma pessoa pode ser mapeada para uma tabela separada, enquanto preservando o valor da semântica de tipos para todas as propriedades:


<class name="Person"
    table="PERSON">

    <id name="id" column="PERSON_ID"
>...</id>

    <join table="ADDRESS">
        <key column="ADDRESS_ID"/>
        <property name="address"/>
        <property name="zip"/>
        <property name="country"/>
    </join>
    ...

Esta característica é útil apenas para modelos de dados legados. Nós recomendamos menos tabelas do que classes e um modelo de domínio fine-grained. Porém, é útil para ficar trocando entre estratégias de mapeamento de herança numa hierarquia simples, como explicaremos mais a frente.

Vimos que o elemento <key> (chave) surgiu algumas vezes até agora. Ele aparece em qualquer lugar que o elemento pai define uma junção para a nova tabela, e define a chave exterior para a tabela associada. Ele também referencia a chave primária da tabela original:

<key
        column(1)="columnname"
        on-del(2)ete="noaction|cascade"
        proper(3)ty-ref="propertyName"
        not-nu(4)ll="true|false"
        update(5)="true|false"
        unique(6)="true|false"
/>

1

column (opcional): O nome da coluna da chave exterior. Isto pode também ser especificado através de elementos aninhados <column>.

2

on-delete (opcional, padrão para noaction): Especifica se a restrição da chave exterior no banco de dados está habilitada para o deletar cascade.

3

property-ref (opcional): Especifica que a chave exterior se refere a colunas que não são chave primária da tabela original. Útil para os dados legados.

4

not-null (opcional): Especifica que a coluna da chave exterior não aceita valores nulos. Isto é implícito em qualquer momento que a chave exterior também fizer parte da chave primária.

5

update (opcional): Especifica que a chave exterior nunca deve ser atualizada. Isto está implícito em qualquer momento que a chave exterior também fizer parte da chave primária.

6

unique (opcional): Especifica que a chave exterior deve ter uma restrição única. Isto é, implícito em qualquer momento que a chave exterior também fizer parte da chave primária.

Nós recomendamos que para sistemas que o desempenho deletar seja importante, todas as chaves devem ser definidas on-delete="cascade". O Hibernate irá usar uma restrição a nível de banco de dados ON CASCADE DELETE, ao invés de muitas instruções DELETE. Esteja ciente que esta característica é um atalho da estratégia usual de bloqueio otimista do Hibernate para dados versionados.

As funções not-null e update são úteis quando estamos mapeando uma associação unidirecional um para muitos. Se você mapear uma associação unidirecional um para muitos para uma chave exterior não-nula, você deve declarar a coluna chave usando <key not-null="true">.

Existe mais um tipo de propriedade de mapeamento. O elemento de mapeamento <any> define uma associação polimórfica para classes de múltiplas tabelas. Este tipo de mapeamento sempre requer mais de uma coluna. A primeira coluna possui o tipo da entidade associada. A outra coluna restante possui o identificador. É impossível especificar uma restrição de chave exterior para este tipo de associação, portanto isto certamente não é visto como um caminho usual para associações (polimórficas) de mapeamento. Você deve usar este mapeamento apenas em casos muito especiais. Por exemplo: audit logs, dados de sessão do usuário, etc.

A função meta-type permite que a aplicação especifique um tipo adaptado que mapeia valores de colunas de banco de dados para classes persistentes que possuem propriedades identificadoras do tipo especificado através do id-type. Você deve especificar o mapeamento de valores do meta-type para nome de classes.


<any name="being" id-type="long" meta-type="string">
    <meta-value value="TBL_ANIMAL" class="Animal"/>
    <meta-value value="TBL_HUMAN" class="Human"/>
    <meta-value value="TBL_ALIEN" class="Alien"/>
    <column name="table_name"/>
    <column name="id"/>
</any
>
<any
        name="(1)propertyName"
        id-typ(2)e="idtypename"
        meta-t(3)ype="metatypename"
        cascad(4)e="cascade_style"
        access(5)="field|property|ClassName"
        optimi(6)stic-lock="true|false"
>
        <meta-value ... />
        <meta-value ... />
        .....
        <column .... />
        <column .... />
        .....
</any
>

1

name: o nome da propriedade.

2

id-type: o tipo identificador.

3

meta-type (opcional – padrão para string): Qualquer tipo que é permitido para um mapeamento discriminador.

4

cascade (opcional – valor padrão none): o estilo cascata.

5

access (opcional - padrão para property): A estratégia que o Hiberante deve utilizar para acessar o valor da propriedade.

6

optimistic-lock (opcional - valor padrãotrue): Especifica que as atualizações para esta propriedade requerem ou não aquisição da bloqueio otimista. Em outras palavras, define se uma versão de incremento deve ocorrer se esta propriedade for suja.

Os objetos de nível de linguagem Java são classificados em dois grupos, em relação ao serviço de persistência:

Uma entidade existe independentemente de qualquer outro objeto guardando referências para a entidade. Em contraste com o modelo usual de Java que um objeto não referenciado é coletado pelo coletor de lixo. Entidades devem ser explicitamente salvas ou deletadas (exceto em operações de salvamento ou deleção que possam ser executada em cascata de uma entidade pai para seus filhos). Isto é diferente do modelo ODMG de persistência do objeto por acessibilidade e se refere mais à forma como os objetos de aplicações são geralmente usados em grandes sistemas. Entidades suportam referências circulares e comuns. Eles podem ser versionados.

O estado persistente da entidade consiste de referências para outras entidades e instâncias de tipos de valor. Valores são primitivos: coleções (não o que tem dentro de uma coleção), componentes e certos objetos imutáveis. Entidades distintas, valores (em coleções e componentes particulares) são persistidos e apagados por acessibilidade. Visto que objetos de valor (e primitivos) são persistidos e apagados junto com as entidades que os contém e não podem ser versionados independentemente. Valores têm identidade não independente, assim eles não podem ser comuns para duas entidades ou coleções.

Até agora, estivemos usando o termo "classe persistente" para referir às entidades. Continuaremos a fazer isto. No entanto, nem todas as classes definidas pelo usuário com estados persistentes são entidades. Um componente é uma classe de usuário definida com valores semânticos. Uma propriedade de Java de tipo java.lang.String também tem um valor semântico. Dada esta definição, nós podemos dizer que todos os tipos (classes) fornecidos pelo JDK têm tipo de valor semântico em Java, enquanto que tipos definidos pelo usuário, podem ser mapeados com entidade ou valor de tipo semântico. Esta decisão pertence ao desenvolvedor da aplicação. Uma boa dica para uma classe de entidade em um modelo de domínio são referências comuns para uma instância simples daquela classe, enquanto a composição ou agregação geralmente se traduz para um tipo de valor.

Iremos rever ambos os conceitos durante todo o guia de referência.

O desafio é mapear o sistema de tipo de Java e a definição do desenvolvedor de entidades e tipos de valor para o sistema de tipo SQL/banco de dados. A ponte entre ambos os sistemas é fornecida pelo Hibernate. Para entidades que usam <class>, < subclass> e assim por diante. Para tipos de valores nós usamos <property>, <component>, etc, geralmente com uma função type. O valor desta função é o nome de um tipo de mapeamento do Hibernate. O Hibernate fornece muitos mapeamentos imediatos para tipos de valores do JDK padrão. Você pode escrever os seus próprios tipos de mapeamentos e implementar sua estratégia de conversão adaptada, como você.

Todos os tipos internos do hibernate exceto coleções, suportam semânticas nulas com a exceção das coleções.

Os tipos de mapeamento básicos fazem parte da categorização do seguinte:

integer, long, short, float, double, character, byte, boolean, yes_no, true_false

Tipos de mapeamentos de classes primitivas ou wrapper Java específicos (vendor-specific) para tipos de coluna SQL. Boolean, boolean, yes_no são todas codificações alternativas para um boolean ou java.lang.Boolean do Java.

string

Um tipo de mapeamento de java.lang.String para VARCHAR (ou VARCHAR2 no Oracle).

date, time, timestamp

Tipos de mapeamento de java.util.Date e suas subclasses para os tipos SQL DATE, TIME e TIMESTAMP (ou equivalente).

calendar, calendar_date

Tipo de mapeamento de java.util.Calendar para os tipos SQL TIMESTAMP e DATE (ou equivalente).

big_decimal, big_integer

Tipo de mapeamento de java.math.BigDecimal and java.math.BigInteger para NUMERIC (ou NUMBER no Oracle).

locale, timezone, currency

Tipos de mapeamentos de java.util.Locale, java.util.TimeZone e java.util.Currency para VARCHAR (ou VARCHAR2 no Oracle). Instâncias de f Locale e Currency são mapeados para seus códigos ISO. Instâncias de TimeZone são mapeados para seu ID.

class

Um tipo de mapeamento de java.lang.Class para VARCHAR (ou VARCHAR2 no Oracle). Uma Class é mapeada pelo seu nome qualificado (completo).

binary

Mapeia matrizes de bytes para um tipo binário de SQL apropriado.

text

Mapeia strings de Java longos para um tipo SQL CLOB ou TEXT.

serializable

Mapeia tipos Java serializáveis para um tipo binário SQL apropriado. Você pode também indicar o tipo serializable do Hibernate com o nome da classe ou interface Java serializável que não é padrão para um tipo básico.

clob, blob

Tipos de mapeamentos para as classes JDBC java.sql.Clob and java.sql.Blob. Estes tipos podem ser inconvenientes para algumas aplicações, visto que o objeto blob ou clob não pode ser reusado fora de uma transação. Além disso, o suporte de driver é imcompleto e inconsistente.

imm_date, imm_time, imm_timestamp, imm_calendar, imm_calendar_date, imm_serializable, imm_binary

Mapeamento de tipos para, os geralmente considerados, tipos mutáveis de Java. Isto é onde o Hibernate faz determinadas otimizações apropriadas somente para tipos imutáveis de Java, e a aplicação trata o objeto como imutável. Por exemplo, você não deve chamar Date.setTime() para uma instância mapeada como imm_timestamp. Para mudar o valor da propriedade, e ter a mudança feita persistente, a aplicação deve atribuir um novo objeto (nonidentical) à propriedade.

Identificadores únicos das entidades e coleções podem ser de qualquer tipo básico exceto binary, blob ou clob. (Identificadores compostos também são permitidos. Leia abaixo para maiores informações.

Os tipos de valores básicos têm suas constantes Type correspondentes definidas em org.hibernate.Hibernate. Por exemplo, Hibernate.STRING representa o tipo string.

É relativamente fácil para desenvolvedores criarem seus próprios tipos de valores. Por exemplo, você pode querer persistir propriedades do tipo java.lang.BigInteger para colunas VARCHAR. O Hibernate não fornece um tipo correspondente para isso. Mas os tipos adaptados não são limitados a mapeamento de uma propriedade, ou elemento de coleção, a uma única coluna da tabela. Assim, por exemplo, você pode ter uma propriedade Java getName()/setName() do tipo java.lang.String que é persistido para colunas FIRST_NAME, INITIAL, SURNAME.

Para implementar um tipo personalizado, implemente org.hibernate.UserType ou org.hibernate.CompositeUserType e declare propriedades usando o nome qualificado da classe do tipo. Veja org.hibernate.test.DoubleStringType para outras funcionalidades.


<property name="twoStrings" type="org.hibernate.test.DoubleStringType">
    <column name="first_string"/>
    <column name="second_string"/>
</property
>

Observe o uso da tag <column> para mapear uma propriedade para colunas múltiplas.

As interfaces CompositeUserType, EnhancedUserType, UserCollectionType, e UserVersionType fornecem suporte para usos mais especializados.

Você mesmo pode fornecer parâmetros a um UserType no arquivo de mapeamento. Para isto, seu UserType deve implementar a interface org.hibernate.usertype.ParameterizedType. Para fornecer parâmetros a seu tipo personalizado, você pode usar o elemento <type> em seus arquivos de mapeamento.


<property name="priority">
    <type name="com.mycompany.usertypes.DefaultValueIntegerType">
        <param name="default"
>0</param>
    </type>
</property
>

O UserType pode agora recuperar o valor para o parâmetro chamado padrão da Propriedade do passado a ele.

Se você usar freqüentemente um determinado UserType, pode ser útil definir um nome mais curto para ele. Você pode fazer isto usando o elemento <typedef>. Typedefs atribui um nome a um tipo personalizado, e pode também conter uma lista de valores de parâmetro padrão se o tipo for parametrizado.


<typedef class="com.mycompany.usertypes.DefaultValueIntegerType" name="default_zero">
    <param name="default"
>0</param>
</typedef
>

<property name="priority" type="default_zero"/>

Também é possível substituir os parâmetros fornecidos em um tipo de definição em situações de caso a caso, utilizando tipos de parâmetros no mapeamento da propriedade.

Apesar da rica variedade, os tipos construídos do Hibernate e suporte para componentes raramente irão utilizar um tipo de padrão, no entanto, é considerado uma boa idéia, utilizar tipos customizados para classes não entidade que ocorrem com freqüência em seu aplicativo. Por exemplo, uma classe MonetaryAmount é um bom candidato para um CompositeUserType, apesar de poder ter sido mapeado facilmente como um componente. Uma motivação para isto é a abstração. Com um tipo padronizado, seus documentos de mapeamento seriam colocados à prova contra mudanças possíveis na forma de representação de valores monetários.

O XML não é para todos, e portanto existem algumas formas alternativas de defiinir o metadado de mapeamento no Hibernate.

Muitos usuários do Hibernate preferem encubar a informação de mapeamento diretamente no código de fonte utilizando o XDoclet @hibernate.tags. Nós não falaremos sobre esta abordagem neste documento, uma vez que é estritamente considerado parte de um XDoclet. No entanto, incluímos os seguintes exemplos da classe Cat com os mapeamentos de XDoclet:

package eg;

import java.util.Set;
import java.util.Date;
/**
 * @hibernate.class
 *  table="CATS"
 */
public class Cat {
    private Long id; // identifier
    private Date birthdate;
    private Cat mother;
    private Set kittens
    private Color color;
    private char sex;
    private float weight;
    /*
     * @hibernate.id
     *  generator-class="native"
     *  column="CAT_ID"
     */
    public Long getId() {
        return id;
    }
    private void setId(Long id) {
        this.id=id;
    }
    /**
     * @hibernate.many-to-one
     *  column="PARENT_ID"
     */
    public Cat getMother() {
        return mother;
    }
    void setMother(Cat mother) {
        this.mother = mother;
    }
    /**
     * @hibernate.property
     *  column="BIRTH_DATE"
     */
    public Date getBirthdate() {
        return birthdate;
    }
    void setBirthdate(Date date) {
        birthdate = date;
    }
    /**
     * @hibernate.property
     *  column="WEIGHT"
     */
    public float getWeight() {
        return weight;
    }
    void setWeight(float weight) {
        this.weight = weight;
    }
    /**
     * @hibernate.property
     *  column="COLOR"
     *  not-null="true"
     */
    public Color getColor() {
        return color;
    }
    void setColor(Color color) {
        this.color = color;
    }
    /**
     * @hibernate.set
     *  inverse="true"
     *  order-by="BIRTH_DATE"
     * @hibernate.collection-key
     *  column="PARENT_ID"
     * @hibernate.collection-one-to-many
     */
    public Set getKittens() {
        return kittens;
    }
    void setKittens(Set kittens) {
        this.kittens = kittens;
    }
    // addKitten not needed by Hibernate
    public void addKitten(Cat kitten) {
        kittens.add(kitten);
    }
    /**
     * @hibernate.property
     *  column="SEX"
     *  not-null="true"
     *  update="false"
     */
    public char getSex() {
        return sex;
    }
    void setSex(char sex) {
        this.sex=sex;
    }
}

Veja o web site do Hibernate para maiores detalhes sobre um XDoclet e Hibernate.

Propriedades Geradas são propriedades que possuem seus valores gerados pelo banco de dados. Como sempre, os aplicativos do Hibernate precisavam renovar objetos que contenham qualquer propriedade para qual o banco de dados estivesse gerando valores. No entanto, vamos permitir que o aplicativo delegue esta responsabilidade ao Hibernate. Essencialmente, quando o Hibernate edita um SQL INSERT ou UPDATE para uma entidade que tem propriedades geradas definidas, ele edita imediatamente depois uma seleção para recuperar os valores gerados.

As propriedades marcadas como geradas devem ser não-inseríveis e não-atualizáveis. Somente versions, timestamps, e simple properties podem ser marcadas como geradas.

never (padrão) - significa que o valor de propriedade dado não é gerado dentro do banco de dados.

insert: informa que o valor de propriedade dado é gerado ao inserir, mas não é novamente gerado nas próximas atualizações. Propriedades do tipo data criada, se encaixam nesta categoria. Note que embora as propriedades version e timestamp podem ser marcadas como geradas, esta opção não está disponível.

always - informa que o valor da propriedade é gerado tanto ao inserir quanto ao atualizar.

Hibernate allows you to customize the SQL it uses to read and write the values of columns mapped to simple properties. For example, if your database provides a set of data encryption functions, you can invoke them for individual columns like this:

<!-- XML : generated by JHighlight v1.0 (http://jhighlight.dev.java.net) -->
<span class="xml_tag_symbols">&lt;</span><span class="xml_tag_name">property</span><span class="xml_plain">&nbsp;</span><span class="xml_attribute_name">name</span><span class="xml_tag_symbols">=</span><span class="xml_attribute_value">&quot;creditCardNumber&quot;</span><span class="xml_tag_symbols">&gt;</span><span class="xml_plain"></span><br />
<span class="xml_plain">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</span><span class="xml_tag_symbols">&lt;</span><span class="xml_tag_name">column</span><span class="xml_plain">&nbsp;</span><br />
<span class="xml_plain">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</span><span class="xml_attribute_name">name</span><span class="xml_tag_symbols">=</span><span class="xml_attribute_value">&quot;credit_card_num&quot;</span><span class="xml_plain"></span><br />
<span class="xml_plain">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</span><span class="xml_attribute_name">read</span><span class="xml_tag_symbols">=</span><span class="xml_attribute_value">&quot;decrypt(credit_card_num)&quot;</span><span class="xml_plain"></span><br />
<span class="xml_plain">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</span><span class="xml_attribute_name">write</span><span class="xml_tag_symbols">=</span><span class="xml_attribute_value">&quot;encrypt(?)&quot;</span><span class="xml_tag_symbols">/&gt;</span><span class="xml_plain"></span><br />
<span class="xml_tag_symbols">&lt;/</span><span class="xml_tag_name">property</span><span class="xml_plain"></span><br />
<span class="xml_tag_symbols">&gt;</span><span class="xml_plain"></span><br />

O Hibernate aplica automaticamente as expressöes personalizadas a todo instante que a propriedade é referenciada numa consulta. Esta funcionalidade é parecida a uma formula de propriedade-derivada com duas diferenças:

  • Esta propriedade é suportada por uma ou mais colunas que são exportadas como parte da geração do esquema automático.

  • Esta propriedade é de gravação-leitura, e não de leitura apenas.

Caso a expressão writeseja especificada, deverá conter um '?' para o valor.

Permite o uso dos comandos CREATE e DROP para criar e remover os objetos de banco de dados arbitrários. Juntamente às ferramentas de evolução do esquema do Hibernate, eles possuem a habilidade de definir completamente um esquema de usuário dentro dos arquivos de mapeamento do Hibernate. Embora criado especificamente para criar e remover algo como trigger ou procedimento armazenado, qualquer comando SQL que pode rodar através de um método java.sql.Statement.execute() é válido. Existem dois módulos essenciais para definir objetos de banco de dados auxiliares:

O primeiro módulo é para listar explicitamente os comandos CREATE e DROP no arquivo de mapeamento:


<hibernate-mapping>
    ...
    <database-object>
        <create
>CREATE TRIGGER my_trigger ...</create>
        <drop
>DROP TRIGGER my_trigger</drop>
    </database-object>
</hibernate-mapping
>

O segundo módulo é para fornecer uma classe padrão que sabe como construir os comandos CREATE e DROP. Esta classe padrão deve implementar a interface org.hibernate.mapping.AuxiliaryDatabaseObject.


<hibernate-mapping>
    ...
    <database-object>
        <definition class="MyTriggerDefinition"/>
    </database-object>
</hibernate-mapping
>

Além disso, estes objetos de banco de dados podem ter um escopo opcional que só será aplicado quando certos dialetos forem utilizados.


<hibernate-mapping>
    ...
    <database-object>
        <definition class="MyTriggerDefinition"/>
        <dialect-scope name="org.hibernate.dialect.Oracle9iDialect"/>
        <dialect-scope name="org.hibernate.dialect.Oracle10gDialect"/>
    </database-object>
</hibernate-mapping
>

O Hibernate requer que os campos de coleções de valor persistente sejam declarados como um tipo de interface. Por exemplo:

public class Product {

    private String serialNumber;
    private Set parts = new HashSet();
    
    public Set getParts() { return parts; }
    void setParts(Set parts) { this.parts = parts; }
    public String getSerialNumber() { return serialNumber; }
    void setSerialNumber(String sn) { serialNumber = sn; }
}

A interface atual pode ser java.util.Set, java.util.Collection, java.util.List, java.util.Map, java.util.SortedSet, java.util.SortedMap ou o que desejar. ("o que desejar" significa que você terá que escrever uma implementação de org.hibernate.usertype.UserCollectionType.)

Observe como inicializamos a variável da instância com uma instância de HashSet. Esta é a melhor maneira de inicializar propriedades de coleções de valor de instâncias recentemente instanciadas (não persistentes). Quando você fizer uma instância persistente, chamando persist(), como por exemplo: o Hibernate substituirá o HashSet por uma instância da própria implementação do Hibernate do Set. Cuidado com erros como este:

Cat cat = new DomesticCat();

Cat kitten = new DomesticCat();
....
Set kittens = new HashSet();
kittens.add(kitten);
cat.setKittens(kittens);
session.persist(cat);
kittens = cat.getKittens(); // Okay, kittens collection is a Set
(HashSet) cat.getKittens(); // Error!

As coleções persistentes injetadas pelo Hibernate, se comportam como HashMap, HashSet, TreeMap, TreeSet ou ArrayList, dependendo do tipo de interface.

As instâncias de coleção têm o comportamento comum de tipos de valores. Eles são automaticamente persistidos quando referenciados por um objeto persistente e automaticamente deletados quando não referenciados. Se a coleção é passada de um objeto persistente para outro, seus elementos devem ser movidos de uma tabela para outra. Duas entidades não devem compartilhar uma referência com uma mesma instância de coleção. Devido ao modelo relacional adjacente, as propriedades de coleções válidas, não suportam semânticas de valores nulos. O Hibernate não distingue entre a referência da coleção nula e uma coleção vazia.

Use as coleções persistentes da mesma forma que usa coleções Java comuns. No entanto, somente tenha a certeza de entender as semânticas de associações bidirecionais (as quais serão discutidas mais tarde).

O elemento do mapeamento do Hibernate, usado para mapear uma coleção, depende do tipo de interface. Por exemplo, um elemento <set> é usado para mapear propriedades do tipo Set.

<class name="Product">

    <id name="serialNumber" column="productSerialNumber"/>
    <set name="parts">
        <key column="productSerialNumber" not-null="true"/>
        <one-to-many class="Part"/>
    </set>
</class
>

Além do <set>, existe também os elementos de mapeamento <list>, <map>, <bag>, <array> and <primitive-array>. O elemento <map> é de representação:

<map
    name="prop(1)ertyName"
    table="tab(2)le_name"
    schema="sc(3)hema_name"
    lazy="true(4)|extra|false"
    inverse="t(5)rue|false"
    cascade="a(6)ll|none|save-update|delete|all-delete-orphan|delete-orphan"
    sort="unso(7)rted|natural|comparatorClass"
    order-by="(8)column_name asc|desc"
    where="arb(9)itrary sql where condition"
    fetch="joi(10)n|select|subselect"
    batch-size(11)="N"
    access="fi(12)eld|property|ClassName"
    optimistic(13)-lock="true|false"
    mutable="t(14)rue|false"
    node="element-name|."
    embed-xml="true|false"
>

    <key .... />
    <map-key .... />
    <element .... />
</map
>

1

name: o nome da propriedade da coleção

2

table (opcional - padrão para nome de propriedade): o nome da tabela de coleção. Isto não é usado para associações um-para-muitos.

3

schema (opcional): o nome de um esquema de tabela para sobrescrever o esquema declarado no elemento raíz.

4

lazy (opcional - padrão para true): pode ser utilizado para desabilitar a busca lazy e especificar que a associação é sempre buscada antecipadamente, ou para habilitar busca "extra-lazy" onde a maioria das operações não inicializa a coleção (apropriado para coleções bem grandes).

5

inverse (opcional - padrão para false): marque esta coleção como o lado "inverso" de uma associação bidirecional.

6

cascade (opcional - padrão para none): habilita operações para cascata para entidades filho.

7

sort (opcional): especifica uma coleção escolhida com ordem de escolhanatural ou uma dada classe comparatória.

8

order-by (opcional, somente JDK1.4): especifica uma coluna da tabela (ou colunas) que define a ordem de iteração do Map, Set ou bag, juntos com um asc ou desc opcional.

9

where (opcional): especifica uma condição SQL arbitrária WHERE a ser usada quando recuperar ou remover a coleção Isto é útil se a coleção tiver somente um subconjunto dos dados disponíveis.

10

fetch (opcional, padrão para select): escolha entre busca de união externa, busca por seleção sequencial e busca por subseleção sequencial.

11

batch-size (opcional, padrão para 1): especifica um "tamanho de lote" para instâncias de busca lazy desta coleção.

12

access (opcional - padrão para property): A estratégia que o Hibernate deve usar para acessar a coleção de valor de propriedade.

13

optimistic-lock (opcional - padrão para true): especifica que alterações para o estado da coleção, resulta no incremento da versão da própria entidade. Para associações um-para-muitos, é sempre bom desabilitar esta configuração.

14

mutable (opcional - padrão para true): um valor de false especifica que os elementos da coleção nunca mudam. Isto permite uma otimização mínima do desempenho em alguns casos.

Todos os mapeamentos de coleção, exceto aqueles com semânticas de conjunto e bag, precisam de uma coluna índice na tabela de coleção, uma coluna que mapeia para um índice matriz ou índice List ou chave de Map. O índice de um Map pode ser de qualquer tipo, mapeado com <map-key>, pode ser uma referência de entidade mapeada com <map-key-many-to-many>, ou pode ser um tipo composto, mapeado com <composite-map-key>. O índice de uma matriz ou lista é sempre do tipo integer e é mapeado usando o elemento <list-index>. As colunas mapeadas contém inteiros sequenciais, dos quais são numerados a partir do zero, por padrão.

<list-index
        column(1)="column_name"
        base="(2)0|1|..."/>

1

column_name (required): the name of the column holding the collection index values.

1

base (optional - defaults to 0): the value of the index column that corresponds to the first element of the list or array.

<map-key
        column(1)="column_name"
        formul(2)a="any SQL expression"
        type="(3)type_name"
        node="@attribute-name"
        length="N"/>

1

column (optional): the name of the column holding the collection index values.

2

formula (optional): a SQL formula used to evaluate the key of the map.

3

type (required): the type of the map keys.

<map-key-many-to-many
        column(1)="column_name"
        formul(2)(3)a="any SQL expression"
        class="ClassName"
/>

1

column (optional): the name of the foreign key column for the collection index values.

2

formula (optional): a SQ formula used to evaluate the foreign key of the map key.

3

class (required): the entity class used as the map key.

Se sua tabela não possui uma coluna de índice e você ainda quiser usar a Lista como tipo de propriedade, você deve mapeiar a propriedade como uma <bag> do Hibernate. Uma bag não mantém sua ordem quando é recuperadada do banco de dados, mas pode ser escolhida de forma opcional ou ordenada.

Quaisquer valores de coleção ou associação muitos-para-muitos requerem uma tabela de coleção dedicada, com uma coluna de chave exterior ou colunas, collection element column ou colunas e possivelmente uma coluna de índice ou colunas.

Para uma coleção com valores, utilizamos a tag <element>. Por exemplo:

<element
        column(1)="column_name"
        formul(2)a="any SQL expression"
        type="(3)typename"
        length="L"
        precision="P"
        scale="S"
        not-null="true|false"
        unique="true|false"
        node="element-name"
/>

1

column (optional): the name of the column holding the collection element values.

2

formula (optional): an SQL formula used to evaluate the element.

3

type (required): the type of the collection element.

A many-to-many association is specified using the <many-to-many> element.

<many-to-many
        column(1)="column_name"
        formul(2)a="any SQL expression"
        class=(3)"ClassName"
        fetch=(4)"select|join"
        unique(5)="true|false"
        not-fo(6)und="ignore|exception"
        entity(7)-name="EntityName"
        proper(8)ty-ref="propertyNameFromAssociatedClass"
        node="element-name"
        embed-xml="true|false"
    />

1

column (optional): the name of the element foreign key column.

2

formula (optional): an SQL formula used to evaluate the element foreign key value.

3

class (required): the name of the associated class.

4

fetch (optional - defaults to join): enables outer-join or sequential select fetching for this association. This is a special case; for full eager fetching in a single SELECT of an entity and its many-to-many relationships to other entities, you would enable join fetching,not only of the collection itself, but also with this attribute on the <many-to-many> nested element.

5

unique (optional): enables the DDL generation of a unique constraint for the foreign-key column. This makes the association multiplicity effectively one-to-many.

6

not-found (optional - defaults to exception): specifies how foreign keys that reference missing rows will be handled: ignore will treat a missing row as a null association.

7

entity-name (optional): the entity name of the associated class, as an alternative to class.

8

property-ref (optional): the name of a property of the associated class that is joined to this foreign key. If not specified, the primary key of the associated class is used.

Segue abaixo alguns exemplos.

Um conjunto de strings:


<set name="names" table="person_names">
    <key column="person_id"/>
    <element column="person_name" type="string"/>
</set
>

Uma bag contendo inteiros com uma ordem de iteração determinada pelo atributo order-by):


<bag name="sizes"
        table="item_sizes" 
        order-by="size asc">
    <key column="item_id"/>
    <element column="size" type="integer"/>
</bag
>

Uma matriz de entidades, neste caso, uma associação muitos-para-muitos:


<array name="addresses"
        table="PersonAddress" 
        cascade="persist">
    <key column="personId"/>
    <list-index column="sortOrder"/>
    <many-to-many column="addressId" class="Address"/>
</array
>

Um mapa desde índices de strigs até datas:


<map name="holidays"
        table="holidays" 
        schema="dbo" 
        order-by="hol_name asc">
    <key column="id"/>
    <map-key column="hol_name" type="string"/>
    <element column="hol_date" type="date"/>
</map
>

Uma lista de componentes (isto será discutido no próximo capítulo):


<list name="carComponents"
        table="CarComponents">
    <key column="carId"/>
    <list-index column="sortOrder"/>
    <composite-element class="CarComponent">
        <property name="price"/>
        <property name="type"/>
        <property name="serialNumber" column="serialNum"/>
    </composite-element>
</list
>

Uma associação um para muitos liga as tabelas das duas classes através de uma chave exterior, sem a intervenção da tabela de coleção. Este mapeamento perde um pouco da semântica das coleções normais do Java:

Uma associação a partir do Produto até a Parte requer a existência de uma coluna de chave exterior e possivelmente uma coluna de índice para a tabela Part Uma tag <one-to-many> indica que esta é uma associação um para muitos.

<one-to-many
        class=(1)"ClassName"
        not-fo(2)und="ignore|exception"
        entity(3)-name="EntityName"
        node="element-name"
        embed-xml="true|false"
    />

1

class (requerido): O nome da classe associada.

2

not-found (opcional - padrão para exception): Especifica como os identificadores em cache que referenciam as linhas faltantes serão tratadas: ignore tratará a linha faltante como uma associação nula.

3

entity-name (opcional): O nome da entidade da classe associada, como uma alternativa para a class.

Note que o elemento <one-to-many> não precisa declarar qualquer coluna. Nem é necessário especificar o nome da table em qualquer lugar.

Este exemplo demonstra um mapa das entidades Part por nome, onde partName é uma propriedade persistente de Part. Note que o uso de um índice baseado em fórmula:


<map name="parts"
        cascade="all">
    <key column="productId" not-null="true"/>
    <map-key formula="partName"/>
    <one-to-many class="Part"/>
</map
>

O Hibernate suporta a implementação de coleções java.util.SortedMap e java.util.SortedSet. Você deve especificar um comparador no arquivo de mapeamento:


<set name="aliases"
            table="person_aliases" 
            sort="natural">
    <key column="person"/>
    <element column="name" type="string"/>
</set>

<map name="holidays" sort="my.custom.HolidayComparator">
    <key column="year_id"/>
    <map-key column="hol_name" type="string"/>
    <element column="hol_date" type="date"/>
</map
>

Valores permitidos da funçãosort sãounsorted, natural e o nome de uma classe implementando java.util.Comparator.

Coleções escolhidas, na verdade se comportam como java.util.TreeSet ou java.util.TreeMap.

Se você quiser que o próprio banco de dados ordene os elementos da coleção use a função order-by do set, bag ou mapeamentos map. Esta solução está disponível somente sob JDK 1.4 ou versões posteriores e é implementada usando LinkedHashSet ou LinkedHashMap). Este desempenha a ordenação na consulta SQL, não em memória.


<set name="aliases" table="person_aliases" order-by="lower(name) asc">
    <key column="person"/>
    <element column="name" type="string"/>
</set>

<map name="holidays" order-by="hol_date, hol_name">
    <key column="year_id"/>
    <map-key column="hol_name" type="string"/>
    <element column="hol_date type="date"/>
</map
>

Associações podem também ser escolhidas por algum critério arbritrário em tempo de espera usando uma coleção filter():

sortedUsers = s.createFilter( group.getUsers(), "order by this.name" ).list();

Uma associação bidirecional permite a navegação de ambos os "lados" da associação. Dois dos casos de associação bidirecional, são suportados:

Você deve especificar uma associação muitos-para-muitos bidirecional, simplesmente mapeando as duas associações muitos-para-muitos para alguma tabela de banco de dados e declarando um dos lados como inverso Voce não poderá selecionar uma coleção indexada.

Segue aqui um exemplo de uma associação muitos-para-muitos bidirecional. Cada categoria pode ter muitos ítens e cada ítem pode estar em várias categorias:


<class name="Category">
    <id name="id" column="CATEGORY_ID"/>
    ...
    <bag name="items" table="CATEGORY_ITEM">
        <key column="CATEGORY_ID"/>
        <many-to-many class="Item" column="ITEM_ID"/>
    </bag>
</class>

<class name="Item">
    <id name="id" column="ITEM_ID"/>
    ...

    <!-- inverse end -->
    <bag name="categories" table="CATEGORY_ITEM" inverse="true">
        <key column="ITEM_ID"/>
        <many-to-many class="Category" column="CATEGORY_ID"/>
    </bag>
</class
>

As mudanças feitas somente de um lado da associação não são persistidas. Isto significa que o Hibernate tem duas representações na memória para cada associação bidirecional, uma associação de A para B e uma outra associação de B para A. Isto é mais fácil de compreender se você pensa sobre o modelo de objetos do Java e como criamos um relacionamento muitos para muitos em Java:



category.getItems().add(item);          // The category now "knows" about the relationship
item.getCategories().add(category);     // The item now "knows" about the relationship
session.persist(item);                   // The relationship won't be saved!
session.persist(category);               // The relationship will be saved

A outra ponta é usada para salvar a representação em memória à base de dados.

Você pode definir uma associação bidirecional um para muitos através de uma associação um-para-muitos indicando as mesmas colunas da tabela que à associação muitos-para-um e declarando a propriedade inverse="true".


<class name="Parent">
    <id name="id" column="parent_id"/>
    ....
    <set name="children" inverse="true">
        <key column="parent_id"/>
        <one-to-many class="Child"/>
    </set>
</class>

<class name="Child">
    <id name="id" column="child_id"/>
    ....
    <many-to-one name="parent" 
        class="Parent" 
        column="parent_id"
        not-null="true"/>
</class
>

Mapear apenas uma das pontas da associação com inverse="true" não afeta as operações em cascata, uma vez que isto é um conceito ortogonal.

Uma associação bidirecional onde um dos lados é representado por uma <list> ou <map> requer uma consideração especial. Se houver uma propriedade da classe filha que faça o mapeamento da coluna do índice sem problemas, pode-se continuar usando inverse="true" no mapeamento da coleção:


<class name="Parent">
    <id name="id" column="parent_id"/>
    ....
    <map name="children" inverse="true">
        <key column="parent_id"/>
        <map-key column="name" 
            type="string"/>
        <one-to-many class="Child"/>
    </map>
</class>

<class name="Child">
    <id name="id" column="child_id"/>
    ....
    <property name="name" 
        not-null="true"/>
    <many-to-one name="parent" 
        class="Parent" 
        column="parent_id"
        not-null="true"/>
</class
>

Mas, se não houver nenhuma propriedade na classe filha, não podemos ver essa associação como verdadeiramente bidirecional (há uma informação disponível em um lado da associação que não está disponível no extremo oposto). Nesse caso, nós não podemos mapear a coleção usando inverse="true". Devemos usar o seguinte mapeamento:


<class name="Parent">
    <id name="id" column="parent_id"/>
    ....
    <map name="children">
        <key column="parent_id"
            not-null="true"/>
        <map-key column="name" 
            type="string"/>
        <one-to-many class="Child"/>
    </map>
</class>

<class name="Child">
    <id name="id" column="child_id"/>
    ....
    <many-to-one name="parent" 
        class="Parent" 
        column="parent_id"
        insert="false"
        update="false"
        not-null="true"/>
</class
>

Veja que neste mapeamento, o lado de coleção válida da associação é responsável pela atualização da chave exterior.

A maioria das associações e coleções muitos para muitos de valores apresentados anteriormente mapeiam às tabelas com as chaves de composição, mesmo que foi sugerido que as entidades devem ser identificadores sintéticos (chaves substitutas). Uma tabela de associação pura não parece tirar muito proveito de uma chave substituta, mesmo que uma coleção de valores compostos usufruam disto. É por este motivo que o Hibernate provê uma maneira de mapear uma associação muitos para muitos com uma coleção de valores para uma tabela com uma chave substituta.

O elemento <idbag> permite mapear um List (ou uma Collection) com uma semântica de bag. Por exemplo:


<idbag name="lovers" table="LOVERS">
    <collection-id column="ID" type="long">
        <generator class="sequence"/>
    </collection-id>
    <key column="PERSON1"/>
    <many-to-many column="PERSON2" class="Person" fetch="join"/>
</idbag
>

O <idbag> possui um gerador de id sintético, igual a uma classe de entidade. Uma chave substituta diferente é associada para cada elemento de coleção. Porém, o Hibernate não provê de nenhum mecanismo para descobrir qual a chave substituta de uma linha em particular.

Note que o desempenho de atualização de um <idbag> é melhor do que um <bag> normal. O Hibernate pode localizar uma linha individual eficazmente e atualizar ou deletar individualmente, como um list, map ou set.

Na implementação atual, a estratégia de geração de identificador native não é suportada para identificadores de coleção usando o <idbag>.

Esta sessão cobre os exemplos de coleções.

A seguinte classe possui uma coleção de instâncias Child:

package eg;

import java.util.Set;
public class Parent {
    private long id;
    private Set children;
    public long getId() { return id; }
    private void setId(long id) { this.id=id; }
    private Set getChildren() { return children; }
    private void setChildren(Set children) { this.children=children; }
    ....
    ....
}

Se cada Filho tiver no máximo um Pai, o mapeamento natural é uma associação um para muitos:


<hibernate-mapping>

    <class name="Parent">
        <id name="id">
            <generator class="sequence"/>
        </id>
        <set name="children">
            <key column="parent_id"/>
            <one-to-many class="Child"/>
        </set>
    </class>

    <class name="Child">
        <id name="id">
            <generator class="sequence"/>
        </id>
        <property name="name"/>
    </class>

</hibernate-mapping
>

Esse mapeamento gera a seguinte definição de tabelas


create table parent ( id bigint not null primary key )
create table child ( id bigint not null primary key, name varchar(255), parent_id bigint )
alter table child add constraint childfk0 (parent_id) references parent

Se o pai for obrigatório, use uma associação bidirecional um para muitos:


<hibernate-mapping>

    <class name="Parent">
        <id name="id">
            <generator class="sequence"/>
        </id>
        <set name="children" inverse="true">
            <key column="parent_id"/>
            <one-to-many class="Child"/>
        </set>
    </class>

    <class name="Child">
        <id name="id">
            <generator class="sequence"/>
        </id>
        <property name="name"/>
        <many-to-one name="parent" class="Parent" column="parent_id" not-null="true"/>
    </class>

</hibernate-mapping
>

Repare na restrição NOT NULL:


create table parent ( id bigint not null primary key )
create table child ( id bigint not null
                     primary key,
                     name varchar(255),
                     parent_id bigint not null )
alter table child add constraint childfk0 (parent_id) references parent

Uma outra alternativa, no caso de você insistir que esta associação deva ser unidirecional, você pode declarar a restrição como NOT NULL no mapeamento <key>:


<hibernate-mapping>

    <class name="Parent">
        <id name="id">
            <generator class="sequence"/>
        </id>
        <set name="children">
            <key column="parent_id" not-null="true"/>
            <one-to-many class="Child"/>
        </set>
    </class>

    <class name="Child">
        <id name="id">
            <generator class="sequence"/>
        </id>
        <property name="name"/>
    </class>

</hibernate-mapping
>

Por outro lado, se um filho puder ter os múltiplos pais, a associação apropriada será muitos-para-muitos:


<hibernate-mapping>

    <class name="Parent">
        <id name="id">
            <generator class="sequence"/>
        </id>
        <set name="children" table="childset">
            <key column="parent_id"/>
            <many-to-many class="Child" column="child_id"/>
        </set>
    </class>

    <class name="Child">
        <id name="id">
            <generator class="sequence"/>
        </id>
        <property name="name"/>
    </class>

</hibernate-mapping
>

Definições das tabelas:

create table parent ( id bigint not null primary key )
create table child ( id bigint not null primary key, name varchar(255) )
create table childset ( parent_id bigint not null,
                        child_id bigint not null,
                        primary key ( parent_id, child_id ) )
alter table childset add constraint childsetfk0 (parent_id) references parent
alter table childset add constraint childsetfk1 (child_id) references child

For more examples and a complete explanation of a parent/child relationship mapping, see Capítulo 22, Exemplo: Pai/Filho for more information.

Até mesmo o mapeamento de associações mais complexos serão discutimos no próximo capítulo.

Uma associação bidirecional muitos-para-um é o tipo mais comum de associação. A seguinte amostra ilustra o relacionamento padrão pai/filho. )


<class name="Person">
    <id name="id" column="personId">
        <generator class="native"/>
    </id>
    <many-to-one name="address" 
        column="addressId"
        not-null="true"/>
</class>

<class name="Address">
    <id name="id" column="addressId">
        <generator class="native"/>
    </id>
    <set name="people" inverse="true">
        <key column="addressId"/>
        <one-to-many class="Person"/>
    </set>
</class
>
create table Person ( personId bigint not null primary key, addressId bigint not null )
create table Address ( addressId bigint not null primary key )
        

Se você usar uma List ou outra coleção indexada, você precisará especificar a coluna key da chave externa como not null. O Hibernate administrará a associação do lado da coleção para que seja mantido o índice de cada elemento da coleção (fazendo com que o outro lado seja virtualmente inverso ajustando update="false" e insert="false"):


<class name="Person">
   <id name="id"/>
   ...
   <many-to-one name="address"
      column="addressId"
      not-null="true"
      insert="false"
      update="false"/>
</class>

<class name="Address">
   <id name="id"/>
   ...
   <list name="people">
      <key column="addressId" not-null="true"/>
      <list-index column="peopleIdx"/>
      <one-to-many class="Person"/>
   </list>
</class
>

Caso uma coluna chave externa adjacente for NOT NULL, é importante que você defina not-null="true" no elemento <key> no mapeamento na coleção se a coluna de chave externa para NOT NULL. Não declare como not-null="true" apenas um elemento aninhado <column>, mas sim o elemento <key>.

Uniões de associações mais complexas são extremamente raras. O Hibernate possibilita o tratamento de mapeamentos mais complexos, usando fragmentos de SQL embutidos no documento de mapeamento. Por exemplo, se uma tabela com informações de dados históricos de uma conta define as colunas accountNumber, effectiveEndDate e effectiveStartDate, mapeadas assim como segue:


<properties name="currentAccountKey">
    <property name="accountNumber" type="string" not-null="true"/>
    <property name="currentAccount" type="boolean">
        <formula
>case when effectiveEndDate is null then 1 else 0 end</formula>
    </property>
</properties>
<property name="effectiveEndDate" type="date"/>
<property name="effectiveStateDate" type="date" not-null="true"/>

Então nós podemos mapear uma associação para a instância atual, aquela com effectiveEndDate nulo, usando:


<many-to-one name="currentAccountInfo"
        property-ref="currentAccountKey"
        class="AccountInfo">
    <column name="accountNumber"/>
    <formula
>'1'</formula>
</many-to-one
>

Em um exemplo mais complexo, imagine que a associação entre Employee e Organization é mantida em uma tabela Employment cheia de dados históricos do trabalho. Então a associação do funcionário mais recentemente e empregado, aquele com a mais recente startDate, deve ser mapeado desta maneira:


<join>
    <key column="employeeId"/>
    <subselect>
        select employeeId, orgId 
        from Employments 
        group by orgId 
        having startDate = max(startDate)
    </subselect>
    <many-to-one name="mostRecentEmployer" 
            class="Organization" 
            column="orgId"/>
</join
>

Esta funcionalidade permite um grau de criatividade e flexibilidade, mas geralmente é mais prático tratar estes tipos de casos, usando uma pesquisa HQL ou uma pesquisa por critério.

A noção de componente é re-utilizada em vários contextos diferentes, para propósitos diferentes, pelo Hibernate.

Um componente é um objeto contido que é persistido como um tipo de valor, não uma referência de entidade. O termo "componente" refere-se à noção de composição da orientação a objetos e não a componentes no nível de arquitetura. Por exemplo, você pode modelar uma pessoa desta maneira:

public class Person {

    private java.util.Date birthday;
    private Name name;
    private String key;
    public String getKey() {
        return key;
    }
    private void setKey(String key) {
        this.key=key;
    }
    public java.util.Date getBirthday() {
        return birthday;
    }
    public void setBirthday(java.util.Date birthday) {
        this.birthday = birthday;
    }
    public Name getName() {
        return name;
    }
    public void setName(Name name) {
        this.name = name;
    }
    ......
    ......
}
public class Name {

    char initial;
    String first;
    String last;
    public String getFirst() {
        return first;
    }
    void setFirst(String first) {
        this.first = first;
    }
    public String getLast() {
        return last;
    }
    void setLast(String last) {
        this.last = last;
    }
    public char getInitial() {
        return initial;
    }
    void setInitial(char initial) {
        this.initial = initial;
    }
}

Agora Name pode ser persistido como um componente de Person. Note que Name define métodos getter e setter para suas propriedades persistentes, mas não necessita declarar nenhuma interface ou propriedades identificadoras.

Nosso mapeamento do Hibernate seria semelhante a este:


<class name="eg.Person" table="person">
    <id name="Key" column="pid" type="string">
        <generator class="uuid"/>
    </id>
    <property name="birthday" type="date"/>
    <component name="Name" class="eg.Name"
> <!-- class attribute optional -->
        <property name="initial"/>
        <property name="first"/>
        <property name="last"/>
    </component>
</class
>

A tabela person teria as seguintes colunas pid, birthday, initial, first and last.

Assim como todos tipos por valor, componentes não suportam referências cruzadas. Em outras palavras, duas persons podem ter o mesmo nome, mas os dois objetos person podem ter dois objetos de nome independentes, apenas "o mesmo" por valor. A semântica dos valores null de um componente são ad hoc. No recarregameno do conteúdo do objeto, o Hibernate entenderá que se todas as colunas do componente são null, então todo o componente é null. Isto seria o certo para a maioria dos propósitos.

As propriedades de um componente podem ser de qualquer tipo do Hibernate(coleções, associações muitos-para-um, outros componentes, etc). Componentes agrupados não devem ser considerados luxo. O Hibernate tem a intenção de suportar um modelo de objetos fine-grained (muito bem granulados).

O elemento <component> permite um sub-elemento <parent> mapeie uma propriedade da classe do componente como uma referencia de volta para a entidade que o contém.


<class name="eg.Person" table="person">
    <id name="Key" column="pid" type="string">
        <generator class="uuid"/>
    </id>
    <property name="birthday" type="date"/>
    <component name="Name" class="eg.Name" unique="true">
        <parent name="namedPerson"/> <!-- reference back to the Person -->
        <property name="initial"/>
        <property name="first"/>
        <property name="last"/>
    </component>
</class
>

Coleções de componentes são suportadas (ex.: uma matriz de tipo Name). Declare a sua coleção de componentes substituindo a tag<element> pela tag <composite-element>.


<set name="someNames" table="some_names" lazy="true">
    <key column="id"/>
    <composite-element class="eg.Name"
> <!-- class attribute required -->
        <property name="initial"/>
        <property name="first"/>
        <property name="last"/>
    </composite-element>
</set
>

Elementos compostos podem conter componentes mas não coleções. Se o seu elemento composto tiver componentes , use a tag <nested-composite-element>. Este é um caso bastante exótico – coleções de componentes que por si própria possui componentes. Neste momento você deve estar se perguntando se uma associação de um-para-muitos seria mais apropriada. Tente remodelar o elemento composto como uma entidade – mas note que mesmo pensando que o modelo Java é o mesmo, o modelo relacional e a semântica de persistência ainda são diferentes.

Um mapeamento de elemento composto não suporta propriedades capazes de serem null se você estiver usando um <set>. Não existe coluna chave primária separada na tabela de elemento composto. O Hibernate tem que usar cada valor das colunas para identificar um registro quando estiver deletando objetos, que não é possível com valores null. Você tem que usar um dos dois, ou apenas propriedades não null em um elemento composto ou escolher uma <list>, <map>, <bag> ou <idbag>.

Um caso especial de elemento composto é um elemento composto com um elemento <many-to-one> aninhado. Um mapeamento como este permite que você mapeie colunas extras de uma tabela de associação de muitos-para-muitos para a classe de elemento composto. A seguinte associação de muitos-para-muitos de Order para um Item onde purchaseDate, price e quantity são propriedades da associação:


<class name="eg.Order" .... >
    ....
    <set name="purchasedItems" table="purchase_items" lazy="true">
        <key column="order_id">
        <composite-element class="eg.Purchase">
            <property name="purchaseDate"/>
            <property name="price"/>
            <property name="quantity"/>
            <many-to-one name="item" class="eg.Item"/> <!-- class attribute is optional -->
        </composite-element>
    </set>
</class
>

Não pode haver uma referência de compra no outro lado, para a navegação da associação bidirecional. Lembre-se que componentes são tipos por valor e não permitem referências compartilhadas. Uma classe Purchase simples pode estar no conjunto de uma classe Order, mas ela não pode ser referenciada por Item no mesmo momento.

Até mesmo associações ternárias (ou quaternária, etc) são possíveis:


<class name="eg.Order" .... >
    ....
    <set name="purchasedItems" table="purchase_items" lazy="true">
        <key column="order_id">
        <composite-element class="eg.OrderLine">
            <many-to-one name="purchaseDetails class="eg.Purchase"/>
            <many-to-one name="item" class="eg.Item"/>
        </composite-element>
    </set>
</class
>

Elementos compostos podem aparecer em pesquisas usando a mesma sintaxe assim como associações para outras entidades.

Você pode usar um componente como um identificador de uma classe entidade. Sua classe componente deve satisfazer certos requisitos:

Você não pode usar um IdentifierGenerator para gerar chaves compostas. Ao invés disso, o aplicativo deve gerenciar seus próprios identificadores.

Use a tag <composite-id>, com elementos <key-property> aninhados, no lugar da declaração <id> de costume. Por exemplo, a classe OrderLine possui uma chave primária que depende da chave primária (composta) de Order.


<class name="OrderLine">

    <composite-id name="id" class="OrderLineId">
        <key-property name="lineId"/>
        <key-property name="orderId"/>
        <key-property name="customerId"/>
    </composite-id>

    <property name="name"/>

    <many-to-one name="order" class="Order"
            insert="false" update="false">
        <column name="orderId"/>
        <column name="customerId"/>
    </many-to-one>
    ....

</class
>

Agora, qualquer chave exterior referenciando a tabela OrderLine também será composta. Você deve declarar isto em seus mapeamentos para outras classes. Uma associação para OrderLine seria mapeada dessa forma:


<many-to-one name="orderLine" class="OrderLine">
<!-- the "class" attribute is optional, as usual -->
    <column name="lineId"/>
    <column name="orderId"/>
    <column name="customerId"/>
</many-to-one
>

Uma associação many-to-many para many-to-many também usa a chave estrangeira composta:


<set name="undeliveredOrderLines">
    <key column name="warehouseId"/>
    <many-to-many class="OrderLine">
        <column name="lineId"/>
        <column name="orderId"/>
        <column name="customerId"/>
    </many-to-many>
</set
>

A coleção de OrderLines em Order usaria:


<set name="orderLines" inverse="true">
    <key>
        <column name="orderId"/>
        <column name="customerId"/>
    </key>
    <one-to-many class="OrderLine"/>
</set
>

O elemento <one-to-many> não declara colunas.

Se OrderLine possui uma coleção, ela também tem uma chave externa composta.


<class name="OrderLine">
    ....
    ....
    <list name="deliveryAttempts">
        <key
>   <!-- a collection inherits the composite key type -->
            <column name="lineId"/>
            <column name="orderId"/>
            <column name="customerId"/>
        </key>
        <list-index column="attemptId" base="1"/>
        <composite-element class="DeliveryAttempt">
            ...
        </composite-element>
    </set>
</class
>

O Hibernate suporta as três estratégias básicas de mapeamento de herança:

Além disso, o Hibernate suporta um quarto tipo de polimorfismo um pouco diferente:

É possível usar diferentes estratégias de mapeamento para diferentes ramificações da mesma hierarquia de herança. Você pode fazer uso do polimorfismo implícito para alcançá-lo através da hierarquia completa. De qualquer forma, o Hibernate não suporta a mistura de mapeamentos <subclass>, <joined-subclass> e <union-subclass> dentro do mesmo elemento raíz <class>. É possível usar, junto às estratégias, uma tabela por hierarquia e tabela por subclasse, abaixo do mesmo elemento <class>, combinando os elementos <subclass> e <join> (veja abaixo).

É possível definir mapeamentos subclass, union-subclass e joined-subclass em documentos de mapeamento separados, diretamente abaixo de hibernate-mapping. Isso permite que você estenda uma hierarquia de classes apenas adicionando um novo arquivo de mapeamento. Você deve especificar uma função extends no mapeamento da subclasse, nomeando uma superclasse previamente mapeada. Anteriormente esta característica fazia o ordenamento dos documentos de mapeamento importantes. Desde o Hibernate3, o ordenamento dos arquivos de mapeamento não importa quando usamos a palavra chave extends. O ordenamento dentro de um arquivo de mapeamento simples ainda necessita ser definido como superclasse antes de subclasse.



 <hibernate-mapping>
     <subclass name="DomesticCat" extends="Cat" discriminator-value="D">
          <property name="name" type="string"/>
     </subclass>
 </hibernate-mapping
>

A implementação de tabela por subclasse do Hibernate não necessita de coluna de discriminador. Outro mapeador objeto/relacional usa uma implementação diferente de tabela por subclasse, que necessita uma coluna com o tipo discriminador na tabela da superclasse. A abordagem escolhida pelo Hibernate é muito mais difícil de implementar, porém mais correto de um ponto de vista relacional. Se você deseja utilizar uma coluna discriminadora com a estratégia tabela por subclasse, você poderá combinar o uso de <subclass> e <join>, dessa maneira:


<class name="Payment" table="PAYMENT">
    <id name="id" type="long" column="PAYMENT_ID">
        <generator class="native"/>
    </id>
    <discriminator column="PAYMENT_TYPE" type="string"/>
    <property name="amount" column="AMOUNT"/>
    ...
    <subclass name="CreditCardPayment" discriminator-value="CREDIT">
        <join table="CREDIT_PAYMENT">
            <key column="PAYMENT_ID"/>
            <property name="creditCardType" column="CCTYPE"/>
            ...
        </join>
    </subclass>
    <subclass name="CashPayment" discriminator-value="CASH">
        <join table="CASH_PAYMENT">
            <key column="PAYMENT_ID"/>
            ...
        </join>
    </subclass>
    <subclass name="ChequePayment" discriminator-value="CHEQUE">
        <join table="CHEQUE_PAYMENT" fetch="select">
            <key column="PAYMENT_ID"/>
            ...
        </join>
    </subclass>
</class
>

A declaração opcional fetch="select" diz ao Hibernate para não buscar os dados da subclasse ChequePayment, quando usar uma união externa pesquisando a superclasse.

Existem duas formas que poderíamos usar a respeito da estratégia de mapeamento de tabela por classe concreta. A primeira é usar <union-subclass>.


<class name="Payment">
    <id name="id" type="long" column="PAYMENT_ID">
        <generator class="sequence"/>
    </id>
    <property name="amount" column="AMOUNT"/>
    ...
    <union-subclass name="CreditCardPayment" table="CREDIT_PAYMENT">
        <property name="creditCardType" column="CCTYPE"/>
        ...
    </union-subclass>
    <union-subclass name="CashPayment" table="CASH_PAYMENT">
        ...
    </union-subclass>
    <union-subclass name="ChequePayment" table="CHEQUE_PAYMENT">
        ...
    </union-subclass>
</class
>

Três tabelas estão envolvidas para as subclasses. Cada tabela define colunas para todas as propriedades da classe, incluindo propriedades herdadas.

A limitação dessa abordagem é que se uma propriedade é mapeada na superclasse, o nome da coluna deve ser o mesmo em todas as tabelas das subclasses. A estratégia do gerador identidade não é permitida na união da herança de sub-classe. A fonte de chave primária deve ser compartilhada através de todas subclasses unidas da hierarquia.

Se sua superclasse é abstrata, mapeie-a com abstract="true". Claro, que se ela não for abstrata, uma tabela adicional (padrão para PAYMENT no exemplo acima), será necessária para segurar as instâncias da superclasse.

Uma abordagem alternativa é fazer uso de polimorfismo implícito:


<class name="CreditCardPayment" table="CREDIT_PAYMENT">
    <id name="id" type="long" column="CREDIT_PAYMENT_ID">
        <generator class="native"/>
    </id>
    <property name="amount" column="CREDIT_AMOUNT"/>
    ...
</class>

<class name="CashPayment" table="CASH_PAYMENT">
    <id name="id" type="long" column="CASH_PAYMENT_ID">
        <generator class="native"/>
    </id>
    <property name="amount" column="CASH_AMOUNT"/>
    ...
</class>

<class name="ChequePayment" table="CHEQUE_PAYMENT">
    <id name="id" type="long" column="CHEQUE_PAYMENT_ID">
        <generator class="native"/>
    </id>
    <property name="amount" column="CHEQUE_AMOUNT"/>
    ...
</class
>

Veja que em nenhum lugar mencionamos a interface Payment explicitamente. Note também que propriedades de Payment são mapeadas em cada uma das subclasses. Se você quiser evitar duplicação, considere usar entidades de XML (ex. [ <!ENTITY allproperties SYSTEM "allproperties.xml"> ] na declaração do DOCTYPE e & allproperties; no mapeamento).

A desvantagem dessa abordagem é que o Hibernate não gera UNIONs de SQL quando executa pesquisas polimórficas.

Para essa estratégia, uma associação polimórfica para Payment geralmente é mapeada usando <any>.


<any name="payment" meta-type="string" id-type="long">
    <meta-value value="CREDIT" class="CreditCardPayment"/>
    <meta-value value="CASH" class="CashPayment"/>
    <meta-value value="CHEQUE" class="ChequePayment"/>
    <column name="PAYMENT_CLASS"/>
    <column name="PAYMENT_ID"/>
</any
>

Existe ainda um item a ser observado sobre este mapeamento. Como as subclasses são mapeadas em seu próprio elemento <class>, e como o Payment é apenas uma interface, cada uma das subclasses pode ser facilmente parte de uma outra hierarquia de herança! (E você ainda pode usar pesquisas polimórficas em cima da interface Payment.)


<class name="CreditCardPayment" table="CREDIT_PAYMENT">
    <id name="id" type="long" column="CREDIT_PAYMENT_ID">
        <generator class="native"/>
    </id>
    <discriminator column="CREDIT_CARD" type="string"/>
    <property name="amount" column="CREDIT_AMOUNT"/>
    ...
    <subclass name="MasterCardPayment" discriminator-value="MDC"/>
    <subclass name="VisaPayment" discriminator-value="VISA"/>
</class>

<class name="NonelectronicTransaction" table="NONELECTRONIC_TXN">
    <id name="id" type="long" column="TXN_ID">
        <generator class="native"/>
    </id>
    ...
    <joined-subclass name="CashPayment" table="CASH_PAYMENT">
        <key column="PAYMENT_ID"/>
        <property name="amount" column="CASH_AMOUNT"/>
        ...
    </joined-subclass>
    <joined-subclass name="ChequePayment" table="CHEQUE_PAYMENT">
        <key column="PAYMENT_ID"/>
        <property name="amount" column="CHEQUE_AMOUNT"/>
        ...
    </joined-subclass>
</class
>

Mais uma vez, nós não mencionamos Payment explicitamente. Se nós executarmos uma pesquisa em cima da interface Payment, por exemplo, from Payment – o Hibernate retorna automaticamente instâncias de CreditCardPayment (e suas subclasses, desde que elas também implementem Payment), CashPayment e ChequePayment mas não as instâncias de NonelectronicTransaction.

O Hibernate é uma solução completa de mapeamento objeto/relacional que não apenas poupa o desenvolvedor dos detalhes de baixo nível do sistema de gerenciamento do banco de dados, como também oferece um gerenciamento de estado para objetos. Isto é, ao contrário do gerenciamento de instruções SQL em camadas de persistência JDBC/SQL comuns, uma visão natural da persistência orientada a objetos em aplicações Java.

Em outras palavras, desenvolvedores de aplicações Hibernate podem sempre considerar o estado de seus objetos, e não necessariamente a execução de instruções SQL. O Hibernate é responsável por esta parte e é relevante aos desenvolvedores de aplicações apenas quando estão ajustando o desempenho do sistema.

O Hibernate define e suporta os seguintes estados de objetos:

Agora iremos discutir os estados e suas transições (e os métodos do Hibernate que disparam uma transição) em mais detalhes.

As instâncias recentemente instanciadas de uma classe persistente são consideradas transientes pelo Hibernate. Podemos transformar uma instância transiente em persistente associando-a a uma sessão:

DomesticCat fritz = new DomesticCat();

fritz.setColor(Color.GINGER);
fritz.setSex('M');
fritz.setName("Fritz");
Long generatedId = (Long) sess.save(fritz);

Se Cat possui um identificador gerado, o identificador é gerado e atribuído à cat quando save() for chamado. Se Cat possuir um identificador Associado, ou uma chave composta, o identificador deverá ser atribuído à instância de cat antes que save() seja chamado. Pode-se usar também persist() ao invés de save(), com a semântica definida no novo esboço do EJB3.

Alternativamente, pode-se atribuir o identificador usando uma versão sobrecarregada de save().

DomesticCat pk = new DomesticCat();

pk.setColor(Color.TABBY);
pk.setSex('F');
pk.setName("PK");
pk.setKittens( new HashSet() );
pk.addKitten(fritz);
sess.save( pk, new Long(1234) );

Se o objeto persistido tiver associado objetos (ex.: a coleção kittens no exemplo anterior), esses objetos podem se tornar persistentes em qualquer ordem que se queira, a não ser que se tenha uma restrição NOT NULL em uma coluna de chave estrangeira. Nunca há risco de violação de restrições de chave estrangeira. Assim, pode-se violar uma restrição NOT NULL se save() for usado nos objetos em uma ordem errada.

Geralmente você não precisa se preocupar com esses detalhes, pois muito provavelmente usará a característica de persistência transitiva do Hibernate para salvar os objetos associados automaticamente. Assim, enquanto uma restrição NOT NULL não ocorrer, o Hibernate tomará conta de tudo. Persistência transitiva será discutida mais adiante nesse mesmo capítulo.

O método load() de uma Session oferece uma maneira de recuperar uma instância persistente se o identificador for conhecido. O load() escolhe uma classe do objeto e carregará o estado em uma instância mais recente dessa classe, em estado persistente.

Cat fritz = (Cat) sess.load(Cat.class, generatedId);
// you need to wrap primitive identifiers

long id = 1234;
DomesticCat pk = (DomesticCat) sess.load( DomesticCat.class, new Long(id) );

Alternativamente, pode-se carregar um estado em uma instância dada:

Cat cat = new DomesticCat();

// load pk's state into cat
sess.load( cat, new Long(pkId) );
Set kittens = cat.getKittens();

Repare que load() irá lançar uma exceção irrecuperável se não houver na tabela no banco de dados um registro que combine. Se a classe for mapeada com um proxy, load() simplesmente retorna um proxy não inicializado e realmente não chamará o banco de dados até que um método do proxy seja invocado. Esse comportamento é muito útil para criar uma associação com um objeto sem que realmente o carregue do bando de dados. Isto também permite que sejam carregadas múltiplas instâncias como um grupo se o batch-size estiver definido para o mapeamento da classe.

Se você não tiver certeza da existência do registro no banco, você deve usar o método get(), que consulta o banco imediatamente e retorna um null se não existir o registro.

Cat cat = (Cat) sess.get(Cat.class, id);

if (cat==null) {
    cat = new Cat();
    sess.save(cat, id);
}
return cat;

Também pode-se carregar um objeto usando SELECT ... FOR UPDATE, usando um LockMode. Veja a documentação da API para maiores informações.

Cat cat = (Cat) sess.get(Cat.class, id, LockMode.UPGRADE);

Note que quaisquer instâncias associadas ou que contenham coleções, não são selecionados FOR UPDATE, a não ser que você decida especificar um lock ou all como um estilo cascata para a associação.

É possível realizar o recarregamento de um objeto e todas as suas coleções a qualquer momento, usando o método refresh().É útil quando os disparos do banco de dados são usados para inicializar algumas propriedades do objeto.

sess.save(cat);

sess.flush(); //force the SQL INSERT
sess.refresh(cat); //re-read the state (after the trigger executes)

How much does Hibernate load from the database and how many SQL SELECTs will it use? This depends on the fetching strategy. This is explained in Seção 20.1, “Estratégias de Busca ”.

Se o identificador do objeto que se está buscando não for conhecido, será necessário realizar uma consulta. O Hibernate suporta uma linguagem de consulta (HQL) orientada a objetos fáceis de usar, porém poderosos. Para criação via programação de consultas, o Hibernate suporta características sofisticadas de consulta por Critério e Exemplo (QBCe QBE). Pode-se também expressar a consulta por meio de SQL nativa do banco de dados, com suporte opcional do Hibernate para conversão do conjunto de resultados em objetos.

Consultas HQL e SQL nativas são representadas por uma instância de org.hibernate.Query. Esta interface oferece métodos para associação de parâmetros, tratamento de conjunto de resultados e para a execução de consultas reais. Você pode obter uma Query usando a Session atual:

List cats = session.createQuery(

    "from Cat as cat where cat.birthdate < ?")
    .setDate(0, date)
    .list();
List mothers = session.createQuery(
    "select mother from Cat as cat join cat.mother as mother where cat.name = ?")
    .setString(0, name)
    .list();
List kittens = session.createQuery(
    "from Cat as cat where cat.mother = ?")
    .setEntity(0, pk)
    .list();
Cat mother = (Cat) session.createQuery(
    "select cat.mother from Cat as cat where cat = ?")
    .setEntity(0, izi)
    .uniqueResult();]]
Query mothersWithKittens = (Cat) session.createQuery(
    "select mother from Cat as mother left join fetch mother.kittens");
Set uniqueMothers = new HashSet(mothersWithKittens.list());

Geralmente uma consulta é executada ao invocar list().O resultado da consulta será carregado completamente em uma coleção na memória. Instâncias de entidades recuperadas por uma consulta estão no estado persistente. O uniqueResult() oferece um atalho se você souber previamente, que a consulta retornará apenas um único objeto. Repare que consultas que fazem uso da busca antecipada (eager fetching) de coleções, geralmente retornam duplicatas dos objetos raiz, mas com suas coleções inicializadas. Pode-se filtrar estas duplicatas através de um simples Set.

Instâncias persistentes transacionais (ou seja, objetos carregados, salvos, criados ou consultados pela Session) podem ser manipuladas pela aplicação e qualquer mudança para estado persistente será persistida quando a Sessão for limpa. Isto será discutido mais adiante neste capítulo. Não há necessidade de chamar um método em particular (como update(), que possui um propósito diferente) para fazer modificações persistentes. Portanto, a forma mais direta de atualizar o estado de um objeto é carregá-lo() e depois manipulá-lo diretamente, enquanto a Sessão estiver aberta:

DomesticCat cat = (DomesticCat) sess.load( Cat.class, new Long(69) );

cat.setName("PK");
sess.flush();  // changes to cat are automatically detected and persisted

Algumas vezes, este modelo de programação é ineficiente, uma vez que ele requer ambos SQL SELECT (para carregar um objeto) e um SQLUPDATE (para persistir seu estado atualizado) na mesma sessão. Por isso, o Hibernate oferece uma abordagem alternativa, usando instâncias desanexadas.

Muitas aplicações precisam recuperar um objeto em uma transação, enviá-lo para a camada UI para manipulação e somente então salvar as mudanças em uma nova transação. As aplicações que usam este tipo de abordagem em ambiente de alta concorrência, geralmente usam dados versionados para assegurar isolação durante a "longa" unidade de trabalho.

O Hibernate suporta este modelo, oferecendo re-acoplamentos das instâncias usando os métodos Session.update() ouSession.merge():

// in the first session

Cat cat = (Cat) firstSession.load(Cat.class, catId);
Cat potentialMate = new Cat();
firstSession.save(potentialMate);
// in a higher layer of the application
cat.setMate(potentialMate);
// later, in a new session
secondSession.update(cat);  // update cat
secondSession.update(mate); // update mate

Se o Cat com identificador catId já tivesse sido carregado pelasegundaSessão quando a aplicação tentou re-acoplá-lo, teria surgido uma exceção.

Use update() se você tiver certeza de que a sessão já não contém uma instância persistente com o mesmo identificador, e merge() se você quiser mesclar suas modificações a qualquer momento sem considerar o estado da sessão. Em outras palavras, update() é geralmente o primeiro método que você chama em uma nova sessão, assegurando que o re-acoplamento de suas instâncias seja a primeira operação executada.

The application should individually update() detached instances that are reachable from the given detached instance only if it wants their state to be updated. This can be automated using transitive persistence. See Seção 10.11, “Persistência Transitiva” for more information.

O método lock() também permite que um aplicativo re-associe um objeto com uma nova sessão. No entanto, a instância desanexada não pode ser modificada.

//just reassociate:

sess.lock(fritz, LockMode.NONE);
//do a version check, then reassociate:
sess.lock(izi, LockMode.READ);
//do a version check, using SELECT ... FOR UPDATE, then reassociate:
sess.lock(pk, LockMode.UPGRADE);

Note que lock() pode ser usado com diversos LockModes, veja a documentação API e o capítulo sobre manuseio de transações para maiores informações. Re-acoplamento não é o único caso de uso para lock().

Other models for long units of work are discussed in Seção 12.3, “Controle de concorrência otimista”.

Os usuários de Hibernate solicitaram um método geral, tanto para salvar uma instância transiente, gerando um novo identificador, quanto para atualizar/ re-acoplar as instâncias desanexadas associadas ao seu identificador atual. O método saveOrUpdate() implementa esta funcionalidade.

// in the first session

Cat cat = (Cat) firstSession.load(Cat.class, catID);
// in a higher tier of the application
Cat mate = new Cat();
cat.setMate(mate);
// later, in a new session
secondSession.saveOrUpdate(cat);   // update existing state (cat has a non-null id)
secondSession.saveOrUpdate(mate);  // save the new instance (mate has a null id)

O uso e semântica do saveOrUpdate() parecem ser confusos para novos usuários. A princípio, enquanto você não tentar usar instâncias de uma sessão em outra nova sessão, não precisará utilizar update(), saveOrUpdate(), ou merge(). Algumas aplicações inteiras nunca precisarão utilizar estes métodos.

Geralmente, update() ou saveOrUpdate()são utilizados nos seguintes cenários:

saveOrUpdate() faz o seguinte:

e a mesclagem() é bastante diferente:

Algumas vezes é útil poder tirar um gráfico de instâncias persistentes e fazê-los persistentes em um armazenamento de dados diferente, sem gerar novamente valores de identificador.

//retrieve a cat from one database

Session session1 = factory1.openSession();
Transaction tx1 = session1.beginTransaction();
Cat cat = session1.get(Cat.class, catId);
tx1.commit();
session1.close();
//reconcile with a second database
Session session2 = factory2.openSession();
Transaction tx2 = session2.beginTransaction();
session2.replicate(cat, ReplicationMode.LATEST_VERSION);
tx2.commit();
session2.close();

O ReplicationMode determina como o replicate() irá lidar com conflitos em linhas existentes no banco de dados:

O caso de uso para este recurso inclui dados de reconciliação em instâncias de banco de dados diferentes, atualizando informações da configuração do sistema durante a atualização do produto, retornando mudanças realizadas durante transações não ACID entre outras funções.

De vez em quando, a Session irá executar as instruções SQL, necessárias para sincronizar o estado de conexão JDBC com o estado de objetos mantidos na memória. Este processo de flush, ocorre por padrão nos seguintes pontos:

As instruções SQL são editadas na seguinte ordem:

Uma exceção é que o objeto que utiliza a geração de ID native é inserido quando salvo.

Exceto quando você explicitamente limpar(), não há nenhuma garantia sobre quando a Sessão executará as chamadas de JDBC, somente se sabe a ordem na qual elas são executadas. No entanto, o Hibernate garante que a Query.list(..) nunca retornará dados antigos, nem retornará dados errados.

It is possible to change the default behavior so that flush occurs less frequently. The FlushMode class defines three different modes: only flush at commit time when the Hibernate Transaction API is used, flush automatically using the explained routine, or never flush unless flush() is called explicitly. The last mode is useful for long running units of work, where a Session is kept open and disconnected for a long time (see Seção 12.3.2, “Sessão estendida e versionamento automático”).

sess = sf.openSession();

Transaction tx = sess.beginTransaction();
sess.setFlushMode(FlushMode.COMMIT); // allow queries to return stale state
Cat izi = (Cat) sess.load(Cat.class, id);
izi.setName(iznizi);
// might return stale data
sess.find("from Cat as cat left outer join cat.kittens kitten");
// change to izi is not flushed!
...
tx.commit(); // flush occurs
sess.close();

During flush, an exception might occur (e.g. if a DML operation violates a constraint). Since handling exceptions involves some understanding of Hibernate's transactional behavior, we discuss it in Capítulo 12, Transações e Concorrência .

É um tanto incômodo salvar, deletar ou reanexar objetos individuais, especialmente ao lidar com um grafo de objetos associados. Um caso comum é um relacionamento pai/filho. Considere o seguinte exemplo:

Se os filhos em um relacionamento pai/filho fossem do tipo valor (ex.: coleção de endereços ou strings), seus ciclos de vida dependeriam do pai e nenhuma ação seria requerida para "cascateamento" de mudança de estado. Quando o pai é salvo, os objetos filho de valor são salvos também, quando o pai é deletado, os filhos também serão deletados, etc. Isto funciona até para operações como remoção de filho da coleção. O Hibernate irá detectar isto e como objetos de valor não podem ter referências compartilhadas, irá deletar o filho do banco de dados.

Agora considere o mesmo cenário com objeto pai e filho sendo entidades, e não de valores (ex.: categorias e ítens, ou cats pai e filho). As entidades possuem seus próprios ciclos de vida, suportam referências compartilhadas (portanto, remover uma entidade da coleção não significa que possa ter sido deletada), e não existe efeito cascata de estado, por padrão, a partir de uma entidade para outras entidades associadas. O Hibernate não implementa persistência por alcance por padrão.

Para cada operação básica da sessão do Hibernate, incluindopersistir(), mesclar(), salvarOuAtualizar(), deletar(), bloquear(), atualizar(), despejar(), replicar(), existe um estilo cascata correspondente. Respectivamente, os estilos cascatas são nomeados criar, mesclar, salvar-atualizar, deletar, bloquiar, atualizar, despejar, replicar. Se desejar uma operação em cascata junto a associação, você deverá indicar isto no documento de mapeamento. Por exemplo:


<one-to-one name="person" cascade="persist"/>

Estilo cascata pode ser combinado:


<one-to-one name="person" cascade="persist,delete,lock"/>

Você pode até utilizar cascade="all" para especificar que todas as operações devem estar em cascata junto à associação. O padrão cascade="none" especifica que nenhuma operação deve estar em cascata.

Um estilo especial em cascata, delete-orphan, aplica somente associações um-para-um, e indica que a operação delete() deve ser aplicada em qualquer objeto filho que seja removido da associação.

Recomendações:

Ao mapear uma associação (tanto uma associação de valor único como uma coleção) com casca de="all", a associação é demarcada como um relacionamento de estilo parent/child onde salvar/atualizar/deletar do pai, resulta em salvar/atualizar/deletar do(s) filho(s).

Além disso, uma mera referência ao filho de um pai persistente irá resultar em salvar/atualizar/ o filho. Entretanto, esta metáfora está incompleta. Um filho, que não é referenciado por seu pai não é deletado automaticamente, exceto no caso de uma associação <one-to-many> mapeada com casca de="delete-orphan". A semântica exata, de operações em cascata para o relacionamento pai/filho, são como as que se seguem:

Finalmente, note que o cascateamento das operações podem ser aplicados a um grafo de objeto em tempo de chamada ou em tempo de limpeza. Todas as operações, se habilitadas, são colocadas em cascata para entidades associadas atingíveis quando a operação for executada. No entanto, save-upate e delete-orphan são transitivas para todas as entidades associadas atingíveis durante a limpeza da Sessão.

Importante

Hibernate's treatment of read-only entities may differ from what you may have encountered elsewhere. Incorrect usage may cause unexpected results.

When an entity is read-only:

  • Hibernate does not dirty-check the entity's simple properties or single-ended associations;

  • Hibernate will not update simple properties or updatable single-ended associations;

  • Hibernate will not update the version of the read-only entity if only simple properties or single-ended updatable associations are changed;

In some ways, Hibernate treats read-only entities the same as entities that are not read-only:

  • Hibernate cascades operations to associations as defined in the entity mapping.

  • Hibernate updates the version if the entity has a collection with changes that dirties the entity;

  • A read-only entity can be deleted.

Even if an entity is not read-only, its collection association can be affected if it contains a read-only entity.

For details about the affect of read-only entities on different property and association types, see Seção 11.2, “Read-only affect on property type”.

For details about how to make entities read-only, see Seção 11.1, “Making persistent entities read-only”

Hibernate does some optimizing for read-only entities:

  • It saves execution time by not dirty-checking simple properties or single-ended associations.

  • It saves memory by deleting database snapshots.

Only persistent entities can be made read-only. Transient and detached entities must be put in persistent state before they can be made read-only.

Hibernate provides the following ways to make persistent entities read-only:

If Session.isDefaultReadOnly() returns false (the default) when an HQL query or criteria executes, then entities and proxies of mutable classes loaded by the query will not be read-only.

You can override this behavior so that entities and proxies loaded by an HQL query or criteria are automatically made read-only.

For an HQL query, call:

Query.setReadOnly( true );

Query.setReadOnly( true ) must be called before Query.list(), Query.uniqueResult(), Query.scroll(), or Query.iterate()

For an HQL criteria, call:

Criteria.setReadOnly( true );

Criteria.setReadOnly( true ) must be called before Criteria.list(), Criteria.uniqueResult(), or Criteria.scroll()

Entities and proxies that exist in the session before being returned by an HQL query or criteria are not affected.

Uninitialized persistent collections returned by the query are not affected. Later, when the collection is initialized, entities loaded into the session will be read-only if Session.isDefaultReadOnly() returns true.

Using Query.setReadOnly( true ) or Criteria.setReadOnly( true ) works well when a single HQL query or criteria loads all the entities and intializes all the proxies and collections that the application needs to be read-only.

When it is not possible to load and initialize all necessary entities in a single query or criteria, you can temporarily change the session default to load entities as read-only before the query is executed. Then you can explicitly initialize proxies and collections before restoring the session default.

Session session = factory.openSession();
Transaction tx = session.beginTransaction();
 
setDefaultReadOnly( true );
Contract contract = 
   ( Contract ) session.createQuery(
           "from Contract where customerName = 'Sherman'" )
           .uniqueResult();
Hibernate.initialize( contract.getPlan() );
Hibernate.initialize( contract.getVariations() );
Hibernate.initialize( contract.getNotes() );
setDefaultReadOnly( false );
...
tx.commit();
session.close();

If Session.isDefaultReadOnly() returns true, then you can use Query.setReadOnly( false ) and Criteria.setReadOnly( false ) to override this session setting and load entities that are not read-only.

The following table summarizes how different property types are affected by making an entity read-only.


* Behavior is different when the entity having the property/association is read-only, compared to when it is not read-only.

Hibernate treats unidirectional one-to-one and many-to-one associations in the same way when the owning entity is read-only.

We use the term unidirectional single-ended association when referring to functionality that is common to unidirectional one-to-one and many-to-one associations.

Hibernate does not dirty-check unidirectional single-ended associations when the owning entity is read-only.

If you change a read-only entity's reference to a unidirectional single-ended association to null, or to refer to a different entity, that change will not be flushed to the database.

If automatic versioning is used, Hibernate will not increment the version due to local changes to unidirectional single-ended associations.

In the following examples, Contract has a unidirectional many-to-one association with Plan. Contract cascades save and update operations to the association.

The following shows that changing a read-only entity's many-to-one association reference to null has no effect on the entity's database representation.

// get a contract with an existing plan;
// make the contract read-only and set its plan to null 
tx = session.beginTransaction();
Contract contract = ( Contract ) session.get( Contract.class, contractId );
session.setReadOnly( contract, true );
contract.setPlan( null );
tx.commit();

// get the same contract
tx = session.beginTransaction();
contract = ( Contract ) session.get( Contract.class, contractId );

// contract.getPlan() still refers to the original plan;

tx.commit();
session.close();

The following shows that, even though an update to a read-only entity's many-to-one association has no affect on the entity's database representation, flush still cascades the save-update operation to the locally changed association.

// get a contract with an existing plan;
// make the contract read-only and change to a new plan
tx = session.beginTransaction();
Contract contract = ( Contract ) session.get( Contract.class, contractId );
session.setReadOnly( contract, true );
Plan newPlan = new Plan( "new plan"
contract.setPlan( newPlan);
tx.commit();

// get the same contract
tx = session.beginTransaction();
contract = ( Contract ) session.get( Contract.class, contractId );
newPlan = ( Contract ) session.get( Plan.class, newPlan.getId() ); 

// contract.getPlan() still refers to the original plan;
// newPlan is non-null because it was persisted when 
// the previous transaction was committed; 

tx.commit();
session.close();

O fator mais importante sobre o Hibernate e o controle de concorrência é que é muito fácil de ser compreendido. O Hibernate usa diretamente conexões de JDBC e recursos de JTA sem adicionar nenhum comportamento de bloqueio a mais. Recomendamos que você gaste algum tempo com o JDBC, o ANSI e a especificação de isolamento de transação de seu sistema de gerência da base de dados.

O Hibernate não bloqueia objetos na memória. Sua aplicação pode esperar o comportamento tal qual definido de acordo com o nível de isolamento de suas transações de banco de dados. Note que graças ao Session, que também é um cache de escopo de transação, o Hibernate procura repetidamente por identificadores e consultas de entidade não consultas de relatórios que retornam valores escalares.

Além do versionamento para o controle automático de concorrência otimista, o Hibernate oferece também uma API (menor) para bloqueio pessimista de linhas usando a sintáxe SELECT FOR UPDATE. O controle de concorrência otimista e esta API são discutidos mais tarde neste capítulo.

Nós começamos a discussão do controle de concorrência no Hibernate com a granularidade do Configuration, SessionFactory e Session, além de transações de base de dados e conversações longas.

Um SessionFactory é objeto threadsafe com um custo alto de criação, compartilhado por todas as threads da aplicação. É criado uma única vez, no início da execução da aplicação, a partir da instância de uma Configuration.

Uma Session é um objeto de baixo custo de criação, não é threadsafe, deve ser usado uma vez, para uma única requisição, uma conversação, uma única unidade do trabalho e então deve ser descartado. Um Session não obterá um JDBC Connection, ou um Datasource, a menos que necessite. Isto não consome nenhum recurso até ser usado.

Uma transação precisa ser o mais curta possível, para reduzir a disputa pelo bloqueio na base de dados. Transações longas impedirão que sua aplicação escale a carga altamente concorrente. Por isso, não é bom manter uma transação de base de dados aberta durante o tempo que o usuário pensa, até que a unidade do trabalho esteja completa.

Qual é o escopo de uma unidade de trabalho? Pode uma única Session do Hibernate gerenciar diversas transações ou este é um o relacionamento um-para-um dos escopos? Quando você deve abrir e fechar uma Session e como você demarca os limites da transação? Estas questões estão endereçadas nas seguintes seções.

First, let's define a unit of work. A unit of work is a design pattern described by Martin Fowler as “ [maintaining] a list of objects affected by a business transaction and coordinates the writing out of changes and the resolution of concurrency problems. ”[PoEAA] In other words, its a series of operations we wish to carry out against the database together. Basically, it is a transaction, though fulfilling a unit of work will often span multiple physical database transactions (see Seção 12.1.2, “Longas conversações”). So really we are talking about a more abstract notion of a transaction. The term "business transaction" is also sometimes used in lieu of unit of work.

Primeiro, não use o antipattern sessão-por-operação: isto é, não abra e feche uma Session para cada simples chamada ao banco de dados em uma única thread. Naturalmente, o mesmo se aplica às transações do banco de dados. As chamadas ao banco de dados em uma aplicação são feitas usando uma seqüência planejada, elas são agrupadas em unidades de trabalho atômicas. Veja que isso também significa que realizar um auto-commit depois de cada instrução SQL é inútil em uma aplicação, esta modalidade é ideal para o trabalho ad hoc do console do SQL. O Hibernate impede, ou espera que o servidor de aplicação impessa isso, aplique a modalidade auto-commit imediatamente. As transações de banco de dados nunca são opcionais, toda a comunicação com um banco de dados tem que ocorrer dentro de uma transação, não importa se você vai ler ou escrever dados. Como explicado, o comportamento auto-commit para leitura de dados deve ser evitado, uma vez que muitas transações pequenas são improváveis de executar melhor do que uma unidade de trabalho claramente definida. A última opção é também muito mais sustentável e expandida.

O modelo mais comum em uma aplicação de cliente/servidor multi-usuário é sessão-por-requisição. Neste modelo, uma requisição do cliente é enviada ao servidor, onde a camada de persistência do Hibernate é executada. Uma Session nova do Hibernate é aberta, e todas as operações da base de dados são executadas nesta unidade do trabalho. Logo que o trabalho for completado, e a resposta para o cliente for preparada, a sessão é descarregada e fechada. Você usaria também uma única transação de base de dados para servir às requisições dos clientes, iniciando e submetendo-o ao abrir e fechar da Session. O relacionamento entre os dois é um-para-um e este modelo é um ajuste perfeito para muitas aplicações.

O desafio encontra-se na implementação. O Hibernate fornece gerenciamento integrado da "sessão atual" para simplificar este modelo. Tudo que você tem a fazer é iniciar uma transação quando uma requisição precisa ser processada e terminar a transação antes que a resposta seja enviada ao cliente. Você pode fazer onde quiser, soluções comuns são ServletFilter, interceptador AOP com um pointcut (ponto de corte) nos métodos de serviço ou em um recipiente de proxy/interceptação. Um recipiente de EJB é uma maneira padronizada de implementar aspectos cross-cutting, tais como a demarcação da transação em beans de sessão EJB, declarativamente com CMT. Se você se decidir usar demarcação programática de transação, dê preferência à API Transaction do Hibernate mostrada mais adiante neste capítulo, para facilidade no uso e portabilidade de código.

Your application code can access a "current session" to process the request by calling sessionFactory.getCurrentSession(). You will always get a Session scoped to the current database transaction. This has to be configured for either resource-local or JTA environments, see Seção 2.5, “Sessões Contextuais”.

Ás vezes, é conveniente estender o escopo de uma Session e de uma transação do banco de dados até que a "visão esteja renderizada". É especialmente útil em aplicações servlet que utilizam uma fase de renderização separada depois da requisição ter sido processada. Estender a transação até que a renderização da visão esteja completa é fácil de fazer se você implementar seu próprio interceptador. Entretanto, não será fácil se você confiar em EJBs com transações gerenciadas por recipiente, porque uma transação será terminada quando um método de EJB retornar, antes que a renderização de toda visão possa começar. Veja o website e o fórum do Hibernate para dicas e exemplos em torno deste modelo de Sessão Aberta na Visualização.

O modelo sessão-por-requisição não é o único conceito útil que você pode usar ao projetar unidades de trabalho. Muitos processos de negócio requerem uma totalidade de séries de interações com o usuário, intercaladas com acessos a uma base de dados. Em aplicações da web e corporativas não é aceitável que uma transação atrapalhe uma interação do usuário. Considere o seguinte exemplo:

Nós chamamos esta unidade de trabalho, do ponto da visão do usuário, uma conversação de longa duração (ou transação da aplicação). Há muitas maneiras de você implementar em sua aplicação.

Uma primeira implementação simples pode manter a Session e a transação aberta durante o tempo de interação do usuário, com bloqueios na base de dados para impedir a modificação concorrente e para garantir o isolamento e a atomicidade. Esse é naturalmente um anti-pattern, uma vez que a disputa do bloqueio não permitiria o escalonameneto da aplicação com o número de usuários concorrentes.

Claramente, temos que usar diversas transações para implementar a conversação. Neste caso, manter o isolamento dos processos de negócio, torna-se responsabilidade parcial da camada da aplicação. Uma única conversação geralmente usa diversas transações. Ela será atômica se somente uma destas transações (a última) armazenar os dados atualizados, todas as outras simplesmente leram os dados (por exemplo em um diálogo do estilo wizard que mede diversos ciclos de requisição/resposta). Isto é mais fácil de implementar do parece, especialmente se você usar as características do Hibernate:

Tanto a sessão-por-solicitação-com-objetos-desanexados quanto a sessão-por-conversação possuem vantagens e desvantagens. Estas desvantagens serão discutidas mais tarde neste capítulo no contexto do controle de concorrência otimista.

Uma aplicação pode acessar concorrentemente o mesmo estado persistente em duas Sessions diferentes. Entretanto, uma instância de uma classe persistente nunca é compartilhada entre duas instâncias Session. Portanto, há duas noções diferentes da identidade:

Então para os objetos acoplados a uma Session específica (ex.: isto está no escopo de uma Session), as duas noções são equivalentes e a identidade da JVM para a identidade da base de dados é garantida pelo Hibernate. Entretanto, embora a aplicação possa acessar concorrentemente o "mesmo" objeto do negócio (identidade persistente) em duas sessões diferentes, as duas instâncias serão realmente "diferentes" (identidade de JVM). Os conflitos são resolvidos usando (versionamento automático) no flush/commit, usando uma abordagem otimista.

Este caminho deixa o Hibernate e o banco de dados se preocuparem com a concorrência. Ele também fornece uma escalabilidade melhor, garantindo que a identidade em unidades de trabalho single-threaded não necessite de bloqueio dispendioso ou de outros meios de sincronização. A aplicação nunca necessita sincronizar qualquer objeto de negócio tão longo que transpasse uma única thread por Session. Dentro de uma Session a aplicação pode usar com segurança o == para comparar objetos.

No entanto, uma aplicação que usa == fora de uma Session, pode ver resultados inesperados. Isto pode ocorrer mesmo em alguns lugares inesperados, por exemplo, se você colocar duas instâncias desacopladas em um mesmo Set. Ambas podem ter a mesma identidade na base de dados (ex.: elas representam a mesma linha), mas a identidade da JVM não é, por definição, garantida para instâncias em estado desacoplado. O desenvolvedor tem que substituir os métodos equals() e hashCode() em classes persistentes e implementar sua própria noção da igualdade do objeto. Advertência: nunca use o identificador da base de dados para implementar a igualdade, use atributos de negócio, uma combinação única, geralmente imutável. O identificador da base de dados mudará se um objeto transiente passar para o estado persistente. Se a instância transiente (geralmente junto com instâncias desacopladas) for inserida em um Set, a mudança do hashcode quebrará o contrato do Set. As funções para chaves de negócio não têm que ser tão estável quanto às chaves primárias da base de dados, você somente tem que garantir a estabilidade durante o tempo que os objetos estiverem no mesmo Set. Veja o website do Hibernate para uma discussão mais completa sobre o assunto. Note também que esta não é uma característica do Hibernate, mas simplesmente a maneira como a identidade e a igualdade do objeto de Java têm que ser implementadas.

Nunca use o anti-patterns sessão-por-usuário-sessão ou sessão-por-aplicação (naturalmente, existem exceções raras para essa regra). Note que algumas das seguintes edições podem também aparecer com modelos recomendados, certifique-se que tenha compreendido as implicações antes de fazer uma decisão de projeto:

Os limites de uma transação de banco de dados, ou sistema, são sempre necessários. Nenhuma comunicação com o banco de dados pode ocorrer fora de uma transação de banco de dados (isto parece confundir muitos desenvolvedores que estão acostumados ao modo auto-commit). Sempre use os limites desobstruídos da transação, até mesmo para operações somente leitura. Dependendo de seu nível de isolamento e capacidade da base de dados isto pode não ser requerido, mas não há nenhum aspecto negativo se você sempre demarcar transações explicitamente. Certamente, uma única transação será melhor executada do que muitas transações pequenas, até mesmo para dados de leitura.

Uma aplicação do Hibernate pode funcionar em ambientes não gerenciados (isto é, aplicações standalone, Web simples ou Swing) e ambientes gerenciados J2EE. Em um ambiente não gerenciado, o Hibernate é geralmente responsável pelo seu próprio pool de conexões. O desenvolvedor, precisa ajustar manualmente os limites das transaçãos, ou seja, começar, submeter ou efetar rollback nas transações ele mesmo. Um ambiente gerenciado fornece transações gerenciadas por recipiente (CMT), com um conjunto da transações definido declarativamente em descritores de implementação de beans de sessão EJB, por exemplo. A demarcação programática é portanto, não mais necessária.

Entretanto, é freqüentemente desejável manter sua camada de persistência portável entre ambientes de recurso locais não gerenciados e sistemas que podem confiar em JTA, mas use BMT ao invés de CMT. Em ambos os casos você usaria demarcação de transação programática. O Hibernate oferece uma API chamada Transaction que traduz dentro do sistema de transação nativa de seu ambiente de implementação. Esta API é realmente opcional, mas nós encorajamos fortemente seu uso a menos que você esteja em um bean de sessão CMT.

Geralmente, finalizar uma Session envolve quatro fases distintas:

A liberação da sessão já foi bem discutida, agora nós daremos uma olhada na demarcação da transação e na manipulação de exceção em ambientes controlados e não controlados.

Se uma camada de persistência do Hibernate roda em um ambiente não gerenciado, as conexões do banco de dados são geralmente tratadas pelos pools de conexões simples (ex.: não DataSource) dos quais o Hibernate obtém as conexões assim que necessitar. A maneira de se manipular uma sessão/transação é mais ou menos assim:

// Non-managed environment idiom

Session sess = factory.openSession();
Transaction tx = null;
try {
    tx = sess.beginTransaction();
    // do some work
    ...
    tx.commit();
}
catch (RuntimeException e) {
    if (tx != null) tx.rollback();
    throw e; // or display error message
}
finally {
    sess.close();
}

Você não pode chamar flush() da Session() explicitamente. A chamada ao commit() dispara automaticamente a sincronização para a sessão, dependendo do Seção 10.10, “Limpando a Sessão”. Uma chamada ao close() marca o fim de uma sessão. A principal implicação do close() é que a conexão JDBC será abandonada pela sessão. Este código Java é portável e funciona em ambientes não gerenciados e de JTA.

Uma solução muito mais flexível é o gerenciamento de contexto "sessão atual" da construção interna do Hibernate, como descrito anteriormente:

// Non-managed environment idiom with getCurrentSession()

try {
    factory.getCurrentSession().beginTransaction();
    // do some work
    ...
    factory.getCurrentSession().getTransaction().commit();
}
catch (RuntimeException e) {
    factory.getCurrentSession().getTransaction().rollback();
    throw e; // or display error message
}

Você muito provavelmente nunca verá estes fragmentos de código em uma aplicação regular; as exceções fatais (do sistema) devem sempre ser pegas no "topo". Ou seja, o código que executa chamadas do Hibernate (na camada de persistência) e o código que trata RuntimeException (e geralmente pode somente limpar acima e na saída) estão em camadas diferentes. O gerenciamento do contexto atual feito pelo Hibernate pode significativamente simplificar este projeto, como tudo que você necessita é do acesso a um SessionFactory. A manipulação de exceção é discutida mais tarde neste capítulo.

Note que você deve selecionar org.hibernate.transaction.JDBCTransactionFactory, que é o padrão, e para o segundo exemplo "thread" como seu hibernate.current_session_context_class.

Se sua camada de persistência funcionar em um servidor de aplicação (por exemplo, dentro dos beans de sessão EJB), cada conexão da fonte de dados obtida pelo Hibernate automaticamente fará parte da transação global de JTA. Você pode também instalar uma implementação standalone de JTA e usá-la sem EJB. O Hibernate oferece duas estratégias para a integração de JTA.

Se você usar transações de bean gerenciado (BMT) o Hibernate dirá ao servidor de aplicação para começar e para terminar uma transação de BMT se você usar a Transaction API. Assim, o código de gerência de transação é idêntico ao ambiente não gerenciado.

// BMT idiom

Session sess = factory.openSession();
Transaction tx = null;
try {
    tx = sess.beginTransaction();
    // do some work
    ...
    tx.commit();
}
catch (RuntimeException e) {
    if (tx != null) tx.rollback();
    throw e; // or display error message
}
finally {
    sess.close();
}

Se você quiser usar uma Session limitada por transação, isto é, a funcionalidade do getCurrentSession() para a propagação fácil do contexto, você terá que usar diretamente a API JTA UserTransaction:

// BMT idiom with getCurrentSession()

try {
    UserTransaction tx = (UserTransaction)new InitialContext()
                            .lookup("java:comp/UserTransaction");
    tx.begin();
    // Do some work on Session bound to transaction
    factory.getCurrentSession().load(...);
    factory.getCurrentSession().persist(...);
    tx.commit();
}
catch (RuntimeException e) {
    tx.rollback();
    throw e; // or display error message
}

Com CMT, a demarcação da transação é feita em descritores de implementação de beans de sessão, não programaticamente, conseqüentemente, o código é reduzido a:

// CMT idiom

 Session sess = factory.getCurrentSession();
 // do some work
 ...

Em um CMT/EJB, até mesmo um rollback acontece automaticamente, desde que uma exceção RuntimeException não tratável seja lançada por um método de um bean de sessão que informa ao recipiente ajustar a transação global ao rollback. Isto significa que você não precisa mesmo usar a API Transaction do Hibernate com BMT ou CMT e você obterá a propagação automática da Sessão "atual" limitada à transação.

Veja que você deverá escolher org.hibernate.transaction.JTATransactionFactory se você usar o JTA diretamente (BMT) e org.hibernate.transaction.CMTTransactionFactory em um bean de sessão CMT, quando você configura a fábrica de transação do Hibernate. Lembre-se também de configurar o hibernate.transaction.manager_lookup_class. Além disso, certifique-se que seu hibernate.current_session_context_class ou não é configurado (compatibilidade com o legado) ou está definido para "jta".

A operação getCurrentSession() tem um aspecto negativo em um ambiente JTA. Há uma advertência para o uso do método liberado de conexão after_statement, o qual é usado então por padrão. Devido a uma limitação simples da especificação JTA, não é possível para o Hibernate automaticamente limpar quaisquer instâncias ScrollableResults ou Iterator abertas retornadas pelo scroll() ou iterate(). Você deve liberar o cursor subjacente da base de dados chamando ScrollableResults.close() ou Hibernate.close(Iterator) explicitamente de um bloco finally. Claro que a maioria das aplicações podem facilmente evitar o uso do scroll() ou do iterate() em todo código provindo do JTA ou do CMT.

Se a Session levantar uma exceção, incluindo qualquer SQLException, você deverá imediatamente dar um rollback na transação do banco, chamando Session.close() e descartando a instância da Session. Certos métodos da Sessionnão deixarão a sessão em um estado inconsistente. Nenhuma exceção lançada pelo Hibernate pode ser recuperada. Certifique-se que a Session será fechada chamando close() no bloco finally.

A exceção HibernateException, a qual envolve a maioria dos erros que podem ocorrer em uma camada de persistência do Hibernate, é uma exceção não verificada. Ela não constava em versões mais antigas de Hibernate. Em nossa opinião, nós não devemos forçar o desenvolvedor a tratar uma exceção irrecuperável em uma camada mais baixa. Na maioria dos sistemas, as exceções não verificadas e fatais são tratadas em um dos primeiros frames da pilha da chamada do método (isto é, em umas camadas mais elevadas) e uma mensagem de erro é apresentada ao usuário da aplicação (ou alguma outra ação apropriada é feita). Note que Hibernate pode também lançar outras exceções não verificadas que não sejam um HibernateException. Estas, também são, irrecuperáveis e uma ação apropriada deve ser tomada.

O Hibernate envolve SQLExceptions lançadas ao interagir com a base de dados em um JDBCException. Na realidade, o Hibernate tentará converter a exceção em uma subclasse mais significativa da JDBCException. A SQLException subjacente está sempre disponível através de JDBCException.getCause(). O Hibernate converte a SQLException em uma subclasse JDBCException apropriada usando SQLExceptionConverter associado ao SessionFactory. Por padrão, o SQLExceptionConverter é definido pelo dialeto configurado. Entretanto, é também possível conectar em uma implementação customizada. Veja o javadoc para mais detalhes da classe SQLExceptionConverterFactory. Os subtipos padrão de JDBCException são:

O único caminho que é consistente com a elevada concorrência e escalabilidade é o controle de concorrência otimista com versionamento. A checagem de versão usa número de versão, ou carimbo de hora (timestamp), para detectar conflitos de atualizações (e para impedir atualizações perdidas). O Hibernate fornece três caminhos possíveis para escrever aplicações que usam concorrência otimista. Os casos de uso que nós mostramos estão no contexto de conversações longas, mas a checagem de versão também tem o benefício de impedir atualizações perdidas em únicas transações.

Em uma implementação sem muita ajuda do Hibernate, cada interação com o banco de dados ocorre em uma nova Session e o desenvolvedor é responsável por recarregar todas as instâncias persistentes da base de dados antes de manipulá-las. Este caminho força a aplicação a realizar sua própria checagem de versão para assegurar a conversação do isolamento da transação. Este caminho é menos eficiente em termos de acesso ao banco de dados. É o caminho mais similar à entidade EJBs.

// foo is an instance loaded by a previous Session

session = factory.openSession();
Transaction t = session.beginTransaction();
int oldVersion = foo.getVersion();
session.load( foo, foo.getKey() ); // load the current state
if ( oldVersion != foo.getVersion() ) throw new StaleObjectStateException();
foo.setProperty("bar");
t.commit();
session.close();

A propriedade version é mapeada usando <version>, e o Hibernate vai incrementá-lá automaticamente durante a liberação se a entidade estiver alterada.

Claro, se você estiver operando em um ambiente de baixa concorrência de dados e não precisar da checagem de versão, você pode usar este caminho e apenas pular a checagem de versão. Nesse caso, o último commit realizado é a estratégia padrão para suas conversações longas. Tenha em mente que isto pode confundir os usuários da aplicação, como também poderão ter atualizações perdidas sem mensagens de erro ou uma possibilidade de ajustar mudanças conflitantes.

Claro que, a checagem manual da versão é somente possível em circunstâncias triviais e não para a maioria de aplicações. Freqüentemente, os gráficoscompletos de objetos modificados têm que ser verificados, não somente únicas instâncias. O Hibernate oferece checagem de versão automática com uma Session estendida ou instâncias desatachadas como o paradigma do projeto.

Uma única instância de Session e suas instâncias persistentes são usadas para a conversação inteira, isto é conhecido como sessão-por-conversação. O Hibernate verifica versões da instância no momento da liberação, lançando uma exceção se a modificação concorrente for detectada. Até o desenvolvedor pegar e tratar essa exceção. As opções comuns são a oportunidade para que o usuário intercale as mudanças ou reinicie a conversação do negócio com dados não antigos.

A Session é desconectada de toda a conexão JDBC adjacente enquanto espera a interação do usuário. Este caminho é o mais eficiente em termos de acesso a bancos de dados. A aplicação não precisa se preocupar com a checagem de versão ou com as instâncias destacadas reatadas, nem precisa recarregar instâncias a cada transação.

// foo is an instance loaded earlier by the old session

Transaction t = session.beginTransaction(); // Obtain a new JDBC connection, start transaction
foo.setProperty("bar");
session.flush();    // Only for last transaction in conversation
t.commit();         // Also return JDBC connection
session.close();    // Only for last transaction in conversation

O objeto foo sabe que a Session já foi carregada. Ao começar uma nova transação ou uma sessão velha, você obterá uma conexão nova e reiniciará a sessão. Submeter uma transação implica em desconectar uma sessão da conexão JDBC e retornar à conexão ao pool. Após a reconexão, para forçar uma checagem de versão em dados que você não esteja atualizando, você poderá chamar Session.lock() com o LockMode.READ em todos os objetos que possam ter sido atualizados por uma outra transação. Você não precisa bloquear nenhum dado que você está atualizando. Geralmente, você configuraria FlushMode.NEVER em uma Session estendida, de modo que somente o último ciclo da transação tenha permissão de persistir todas as modificações feitas nesta conversação. Por isso, somente esta última transação incluiria a operação flush() e então também iria close() a sessão para terminar a conversação.

Este modelo é problemático se a Session for demasiadamente grande para ser armazenada durante o tempo de espera do usuário (por exemplo uma HttpSession deve ser mantida o menor possível). Como a Session é também cache de primeiro nível (imperativo) e contém todos os objetos carregados, nós podemos provavelmente usar esta estratégia somente para alguns ciclos de requisição/resposta. Você deve usar a Session somente para uma única conversação, porque ela logo também estará com dados velhos.

Note também que você deve manter a Session desconectada, fechada para a camada de persistência. Ou seja, use um bean de sessão com estado EJB para prender a Session em um ambiente de três camadas. Não transfira à camada web, ou até serializá-lo para uma camada separada, para armazená-lo no HttpSession.

O modelo da sessão estendida, ou sessão-por-conversação, é mais difícil de implementar com gerenciamento automático de sessão atual. Você precisa fornecer sua própria implementação do CurrentSessionContext para isto. Veja o Hibernate Wiki para exemplos.

Você pode desabilitar o incremento da versão automática de Hibernate para propriedades e coleções particulares, configurando a função de mapeamento optimistic-lock para false. O Hibernate então, não incrementará mais versões se a propriedade estiver modificada.

Os esquemas da base de dados legado são freqüentemente estáticos e não podem ser modificados. Ou então, outras aplicações puderam também acessar a mesma base de dados e não sabem tratar a versão dos números ou carimbos de hora. Em ambos os casos, o versionamento não pode confiar em uma coluna particular em uma tabela. Para forçar uma checagem de versão sem uma versão ou mapeamento da propriedade do carimbo de hora com uma comparação do estado de todos os campos em uma linha, configure optimistic-lock="all" no mapeamento <class>. Note que isto conceitualmente é somente feito em trabalhos se o Hibernate puder comparar o estado velho e novo (ex.: se você usar uma única Session longa e não uma sessão-por-solicitação-com-objetos-desanexados).

Às vezes a modificação concorrente pode ser permitida, desde que as mudanças realizadas não se sobreponham. Se você configurar optimistic-lock="dirty" ao mapear o <class>, o Hibernate comparará somente campos modificados durante a liberação.

Em ambos os casos, com as colunas de versão/carimbo de hora dedicados com comparação de campo cheio/sujo, o Hibernate usa uma única instrução UPDATE, com uma cláusula WHERE apropriada, por entidade para executar a checagem da versão e atualizar a informação. Se você usar a persistência transitiva para cascatear o reatamento das entidades associadas, o Hibernate pode executar atualizações desnecessárias. Isso não é geralmente um problema, mas os triggers em atualizações num banco de dados pode ser executado mesmo quando nenhuma mudança foi feita nas instâncias desanexadas. Você pode customizar este comportamento configurando selecionar-antes-de atualizar="verdadeiro" no mapeamento <class>, forçando o Hibernate a fazer um SELECT nas instâncias para assegurar-se de que as mudanças realmente aconteceram, antes de atualizar a linha.

Não ha intenção alguma que usuários gastem muitas horas se preocupando com suas estratégias de bloqueio. Geralmente, é o bastante especificar um nível de isolamento para as conexões JDBC e então deixar simplesmente o banco de dados fazer todo o trabalho. Entretanto, os usuários avançados podem às vezes desejar obter bloqueios pessimistas exclusivos, ou re-obter bloqueios no início de uma nova transação.

O Hibernate usará sempre o mecanismo de bloqueio da base de dados, nunca bloquiar objetos na memória.

A classe LockMode define os diferentes níveis de bloqueio que o Hibernate pode adquirir. Um bloqueio é obtido pelos seguintes mecanismos:

O bloqueio obtido "explicitamente pelo usuário" se dá nas seguintes formas:

Se uma Session.load() é invocada com UPGRADE ou UPGRADE_NOWAIT, e o objeto requisitado ainda não foi carregado pela sessão, o objeto é carregado usando SELECT ... FOR UPDATE. Se load() for chamado para um objeto que já foi carregado com um bloqueio menos restritivo que o novo bloqueio solicitado, o Hibernate invoca o método lock() para aquele objeto.

O Session.lock() executa uma verificação no número da versão se o modo de bloqueio especificado for READ, UPGRADE ou UPGRADE_NOWAIT. No caso do UPGRADE ou UPGRADE_NOWAIT, é usado SELECT ... FOR UPDATE.

Se o banco de dados não suportar o modo de bloqueio solicitado, o Hibernate usará um modo alternativo apropriado, ao invés de lançar uma exceção. Isso garante que a aplicação seja portátil.

O comportamento legado do Hibernate 2.x referente ao gerenciamento da conexão via JDBC era que a Session precisaria obter uma conexão quando ela precisasse pela primeira vez e depois manteria a conexão enquanto a sessão não fosse fechada. O Hibernate 3.x introduz a idéia de modos para liberar a sessão, para informar a sessão a forma como deve manusear a sua conexão JDBC. Veja que essa discussão só é pertinente para conexões fornecidas com um ConnectionProvider configurado. As conexões fornecidas pelo usuário estão fora do escopo dessa discussão. Os diferentes modos de liberação estão definidos pelos valores da enumeração org.hibernate.ConnectionReleaseMode:

O parâmetro de configuração hibernate.connection.release_mode é usado para especificar qual modo de liberação deve ser usado. Segue abaixo os valores possíveis:

É muito útil quando a aplicação precisa reagir a certos eventos que ocorrem dentro do Hibernate. Isso permite a implementação de certas funções genéricas, assim como permite estender as funcionalidades do Hibernate.

A interface Interceptor permite fornecer informações da sessão para o aplicativo, permitindo que o aplicativo inspecione e/ou manipule as propriedades de um objeto persistente antes de ser salvo, atualizado, excluído ou salvo. Pode ser usado para gerar informações de auditoria. Por exemplo, o seguinte Interceptor ajusta a função automaticamente createTimestamp quando um Auditable é criado e atualiza a função lastUpdateTimestamp quando um Auditable é atualizado.

Você pode implementar Interceptor diretamente ou pode estender EmptyInterceptor.

package org.hibernate.test;


import java.io.Serializable;
import java.util.Date;
import java.util.Iterator;
import org.hibernate.EmptyInterceptor;
import org.hibernate.Transaction;
import org.hibernate.type.Type;
public class AuditInterceptor extends EmptyInterceptor {
    private int updates;
    private int creates;
    private int loads;
    public void onDelete(Object entity,
                         Serializable id,
                         Object[] state,
                         String[] propertyNames,
                         Type[] types) {
        // do nothing
    }
    public boolean onFlushDirty(Object entity,
                                Serializable id,
                                Object[] currentState,
                                Object[] previousState,
                                String[] propertyNames,
                                Type[] types) {
        if ( entity instanceof Auditable ) {
            updates++;
            for ( int i=0; i < propertyNames.length; i++ ) {
                if ( "lastUpdateTimestamp".equals( propertyNames[i] ) ) {
                    currentState[i] = new Date();
                    return true;
                }
            }
        }
        return false;
    }
    public boolean onLoad(Object entity,
                          Serializable id,
                          Object[] state,
                          String[] propertyNames,
                          Type[] types) {
        if ( entity instanceof Auditable ) {
            loads++;
        }
        return false;
    }
    public boolean onSave(Object entity,
                          Serializable id,
                          Object[] state,
                          String[] propertyNames,
                          Type[] types) {
        if ( entity instanceof Auditable ) {
            creates++;
            for ( int i=0; i<propertyNames.length; i++ ) {
                if ( "createTimestamp".equals( propertyNames[i] ) ) {
                    state[i] = new Date();
                    return true;
                }
            }
        }
        return false;
    }
    public void afterTransactionCompletion(Transaction tx) {
        if ( tx.wasCommitted() ) {
            System.out.println("Creations: " + creates + ", Updates: " + updates, "Loads: " + loads);
        }
        updates=0;
        creates=0;
        loads=0;
    }
}

Os interceptadores se apresentam de duas formas: Session-scoped e SessionFactory-scoped.

Um interceptador delimitado da Session, é definido quando uma sessão é aberta usando o método sobrecarregado da SessionFactory.openSession() que aceita um Interceptor como parâmetro.

Session session = sf.openSession( new AuditInterceptor() );

Um interceptador da SessionFactory-scoped é definido no objeto Configuration antes da SessionFactory ser instanciada. Nesse caso, o interceptador fornecido será aplicado para todas as sessões abertas por aquela SessionFactory; Isso apenas não ocorrerá caso seja especificado um interceptador no momento em que a sessão for aberta. Um interceptador no escopo de SessionFactory deve ser thread safe. Cetifique-se de não armazenar funções de estado específicos da sessão, pois, provavelmente, múltiplas sessões irão utilizar esse interceptador simultaneamente.

new Configuration().setInterceptor( new AuditInterceptor() );

Se você precisar executar uma ação em determinados eventos da camada de persistência, você também pode usar a arquitetura de event do Hibernate3. Um evento do sistema pode ser utilizado como complemento ou em substituição a um interceptador.

Essencialmente todos os métodos da interface Session possuem um evento correlacionado. Se você tiver um LoadEvent, um LoadEvent, etc. Consulte o DTD do XML de arquivo deconfiguração ou o pacote org.hibernate.event para a lista completa dos tipos de eventos). Quando uma requisição é feita em um desses métodos, a Session do hibernate gera um evento apropriado e o envia para o listener de evento correspondente àquele tipo de evento. Esses listeners implementam a mesma lógica que aqueles métodos, trazendo os mesmos resultados. Entretanto, você é livre para implementar uma customização de um desses listeners (isto é, o LoadEvent é processado pela implementação registrada da interface LoadEventListener), então sua implementação vai ficar responsável por processar qualquer requisição load() feita pela Session.

Para todos os efeitos esses listeners devem ser considerados singletons. Isto significa que eles são compartilhados entre as requisições, e assim sendo, não devem salvar nenhum estado das variáveis instanciadas.

Um listener personalizado deve implementar a interface referente ao evento a ser processado e/ou deve estender a classes base equivalentes (ou mesmo os listeners padrões usados pelo Hibernate, eles não são declarados como finais com esse objetivo). O listener personalizado pode ser registrado programaticamente no objeto Configuration, ou declarativamente no XML de configuração do Hibernate especificado. A configuração declarativa através do arquivo de propriedades não é suportado. Aqui temos um exemplo de como carregar um listener personalizado:

public class MyLoadListener implements LoadEventListener {

    // this is the single method defined by the LoadEventListener interface
    public void onLoad(LoadEvent event, LoadEventListener.LoadType loadType)
            throws HibernateException {
        if ( !MySecurity.isAuthorized( event.getEntityClassName(), event.getEntityId() ) ) {
            throw MySecurityException("Unauthorized access");
        }
    }
}

Você também precisa adicionar uma entrada no XML de configuração do Hibernate para registrar declarativamente qual listener deve se utilizado em conjunto com o listener padrão:


<hibernate-configuration>
    <session-factory>
        ...
        <event type="load">
            <listener class="com.eg.MyLoadListener"/>
            <listener class="org.hibernate.event.def.DefaultLoadEventListener"/>
        </event>
    </session-factory>
</hibernate-configuration
>

Ou, você pode registrar o listener programaticamente:

Configuration cfg = new Configuration();

LoadEventListener[] stack = { new MyLoadListener(), new DefaultLoadEventListener() };
cfg.EventListeners().setLoadEventListeners(stack);

Listeners registrados declarativamente não compartilham da mesma instância. Se o mesmo nome da classe for utilizado em vários elementos <listener/>, cada um resultará em uma instância separada dessa classe. Se você tem a necessidade de compartilhar uma instância de um listener entre diversos tipos de listeners você deve registrar o listener programaticamente.

Mas, por quê implementar uma interface e definir o tipo específico durante a configuração? Bem, um listener pode implementar vários listeners de evento. Com o tipo sendo definido durante o registro, fica fácil ligar ou desligar listeners personalizados durante a configuração.

Uma alternativa para inserir 100.000 linhas no banco de dados usando o Hibernate pode ser a seguinte:

Session session = sessionFactory.openSession();

Transaction tx = session.beginTransaction();
for ( int i=0; i<100000; i++ ) {
    Customer customer = new Customer(.....);
    session.save(customer);
}
tx.commit();
session.close();

Isto irá falhar com um OutOfMemoryException em algum lugar próximo a linha 50.000. Isso ocorre devido ao fato do Hibernate fazer cache de todas as instâncias de Customer inseridas num cachê em nível de sessão. Nós demonstraremos neste capitulo como evitar este problema.

Entretanto, se você vai realizar processamento em lotes, é muito importante que você habilite o uso de lotes JDBC, se você pretende obter um desempenho razoável. Defina o tamanho do lote JDBC em um valor razoável (algo entre 10-50, por exemplo):

hibernate.jdbc.batch_size 20

Note que o Hibernate desabilita o loteamento de inserção no nível JDBC de forma transparente se você utilizar um gerador de identificador identiy.

Você também pode querer rodar esse tipo de processamento em lotes com o cache secundário completamente desabilitado:

hibernate.cache.use_second_level_cache false

Mas isto não é absolutamente necessário, desde que possamos ajustar o CacheMode para desabilitar a interação com o cache secundário.

Como forma alternativa, o Hibernate provê uma API orientada à comandos, que pode ser usada para transmitir um fluxo de dados de e para o banco de dados na forma de objetos desanexados. Um StatelessSession não tem um contexto persistente associado e não fornece muito das semânticas de alto nível para controle do ciclo de vida. Especialmente uma Sessão sem Estado não implementa um cachê primário e nem interage com o cache secundário ou cachê de consulta. Ela não implementa uma gravação temporária transacional ou checagem suja automática. Operações realizadas usando uma sessão sem estado não fazem nenhum tipo de cascata com as instâncias associadas. As coleções são ignoradas por uma Sessão sem Estado. Operações realizadas com uma Sessão sem Estado ignoram a arquitetura de eventos e os interceptadores. As sessões sem estado são vulneráveis aos efeitos do alias dos dados, devido à falta do cachê primário. Uma Sessão sem Estado é uma abstração de baixo nível, muito mais próxima do JDBC adjacente.

StatelessSession session = sessionFactory.openStatelessSession();

Transaction tx = session.beginTransaction();
   
ScrollableResults customers = session.getNamedQuery("GetCustomers")
    .scroll(ScrollMode.FORWARD_ONLY);
while ( customers.next() ) {
    Customer customer = (Customer) customers.get(0);
    customer.updateStuff(...);
    session.update(customer);
}
   
tx.commit();
session.close();

Veja neste exempo, as instâncias de Customer retornadas pela consulta, são imediatamente desvinculadas. Elas nunca serão associadas à um contexto persistente.

As operações insert(), update() e delete() definidas pela interface StatelessSession são considerados operações diretas no banco de dados. Isto resulta em uma execução imediata de comandos SQL INSERT, UPDATE ou DELETE respectivamente. Dessa forma, eles possuem uma semântica bem diferente das operações save(), saveOrUpdate() ou delete() definidas na interface Session.

Como já discutido anteriormente, o mapeamento objeto/relacional automático e transparente é adquirido com a gerência do estado do objeto. Com isto o estado daquele objeto fica disponível na memória. Isto significa que a manipulação de dados (usando as instruções SQL Data Manipulation Language (SQL-style DML): INSERT, UPDATE, DELETE) diretamente no banco de dados não irá afetar o estado registrado em memória. Entretanto, o Hibernate provê métodos para executar instruções de volume de SQL-style DML, que são totalmente executados com HQL (Hibernate Query Language - Linguagem de Consulta Hibernate) (HQL).

A pseudo-sintaxe para instruções UPDATE e DELETE é: Algumas observações: ( UPDATE | DELETE ) FROM? EntityName (WHERE where_conditions)?.

Alguns pontos a serem destacados:

  • Na cláusula from, a palavra chave FROM é opcional;

  • Somente uma entidade pode ser chamada na cláusula from. Isto pode, opcionalmente, ser um alias. Se o nome da entidade for um alias, então qualquer referência de propriedade deve ser qualificada usando esse alias. Caso o nome da entidade não for um alias, então será ilegal qualquer das referências de propriedade serem qualificadas.

  • Nenhum joins, tanto implícito ou explícito, pode ser especificado em uma consulta de volume HQL. As Sub-consultas podem ser utilizadas na cláusula onde, em que as subconsultas podem conter uniões.

  • A clausula onde também é opcional.

Como exemplo para executar um HQL UPDATE, use o método Query.executeUpdate(). O método ganhou o nome devido à sua familiaridade com o do JDBC PreparedStatement.executeUpdate()):

Session session = sessionFactory.openSession();

Transaction tx = session.beginTransaction();
String hqlUpdate = "update Customer c set c.name = :newName where c.name = :oldName";
// or String hqlUpdate = "update Customer set name = :newName where name = :oldName";
int updatedEntities = s.createQuery( hqlUpdate )
        .setString( "newName", newName )
        .setString( "oldName", oldName )
        .executeUpdate();
tx.commit();
session.close();

As instruções do HQL UPDATE por padrão não afetam o version ou os valores de propriedade timestamp para as entidades afetadas, de acordo com a especificação EJB3. No entanto, você poderá forçar o Hibernate a redefinir corretamente os valores de propriedade version ou timestamp usando um versioned update. Para tal, adicione uma palavra chave VERSIONED após a palavra chave UPDATE.

Session session = sessionFactory.openSession();

Transaction tx = session.beginTransaction();
String hqlVersionedUpdate = "update versioned Customer set name = :newName where name = :oldName";
int updatedEntities = s.createQuery( hqlUpdate )
        .setString( "newName", newName )
        .setString( "oldName", oldName )
        .executeUpdate();
tx.commit();
session.close();

Note que os tipos de versões padronizadas, org.hibernate.usertype.UserVersionType, não são permitidos junto às instruções update versioned.

Para executar um HQL DELETE, use o mesmo método Query.executeUpdate():

Session session = sessionFactory.openSession();

Transaction tx = session.beginTransaction();
String hqlDelete = "delete Customer c where c.name = :oldName";
// or String hqlDelete = "delete Customer where name = :oldName";
int deletedEntities = s.createQuery( hqlDelete )
        .setString( "oldName", oldName )
        .executeUpdate();
tx.commit();
session.close();

O valor int retornado pelo método Query.executeUpdate() indica o número de entidade afetadas pela operação. Lembre-se que isso pode estar ou não relacionado ao número de linhas alteradas no banco de dados. Uma operação de volume HQL pode resultar em várias instruções SQL atuais a serem executadas (por exemplo, no caso de subclasses unidas). O número retornado indica a quantidade real de entidades afetadas pela instrução. Voltando ao exemplo da subclasse unida, a exclusão de uma das subclasses pode resultar numa exclusão em outra tabelas, não apenas na tabela para qual a subclasses está mapeada, mas também tabela "root" e possivelmente nas tabelas de subclasses unidas num nível hierárquico imediatamente abaixo.

A pseudo-sintáxe para o comando INSERT é: INSERT INTO EntityName properties_list select_statement. Alguns pontos a observar:

  • Apenas a forma INSERT INTO ... SELECT ... é suportada; INSERT INTO ... VALUES ... não é suportada.

    A lista de propriedade é análoga ao column specification do comando SQL INSERT. Para entidades envolvidas em mapeamentos, apenas as propriedades definidas diretamente em nível da classe podem ser usadas na properties_list. Propriedades da superclasse não são permitidas e as propriedades da subclasse não fazem sentido. Em outras palavras, os comandos INSERT não são polimórficos.

  • selecionar_instruções pode ser qualquer consulta de seleção HQL válida, desde que os tipos de retorno sejam compatíveis com os tipos esperados pela inserção. Atualmente, isto é verificado durante a compilação da consulta, ao invés de permitir que a verificação chegue ao banco de dados. Entretanto, perceba que isso pode causar problemas entre os Tipos de Hibernate que são equivalentes e não iguais. Isso pode causar problemas nas combinações entre a propriedade definida como org.hibernate.type.DateTypee uma propriedade definida como org.hibernate.type.TimestampType, embora o banco de dados não possa fazer uma distinção ou possa ser capaz de manusear a conversão.

  • Para a propriedade id, a instrução insert oferece duas opções. Você pode especificar qualquer propriedade id explicitamente no properties_list (em alguns casos esse valor é obtido diretamente da instrução select) ou pode omitir do properties_list (nesse caso, um valor gerado é usado). Essa última opção só é válida quando são usados geradores de ids que operam no banco de dados; a tentativa de usar essa opção com geradores do tipo "em memória" irá causar um exceção durante a etapa de análise. Note que para a finalidade desta discussão, os seguintes geradores operam com o banco de dados org.hibernate.id.SequenceGenerator (e suas subclasses) e qualquer implementação de org.hibernate.id.PostInsertIdentifierGenerator. Aqui, a exceção mais notável é o org.hibernate.id.TableHiLoGenerator, que não pode ser usado porque ele não dispõe de mecanismos para recuperar os seus valores.

  • Para propriedades mapeadas como version ou timestamp, a instrução insert lhe oferece duas opções. Você pode especificar a propriedade na properties_list, nesse caso o seu valor é obtido a partir da instrução select correspondente, ou ele pode ser omitido da properties_list (neste caso utiliza-se o seed value definido pela classe org.hibernate.type.VersionType).

Segue abaixo o exemplo da execução de um HQL INSERT:

Session session = sessionFactory.openSession();

Transaction tx = session.beginTransaction();
String hqlInsert = "insert into DelinquentAccount (id, name) select c.id, c.name from Customer c where ...";
int createdEntities = s.createQuery( hqlInsert )
        .executeUpdate();
tx.commit();
session.close();

O Hibernate vem com uma poderosa linguagem de consulta (HQL) que é muito parecida com o SQL. No entanto, comparado com o SQL o HQL é totalmente orientado à objetos, e compreende noções de herança, polimorfismo e associações.

Podemos também atribuir aliases em uma entidade associada, ou mesmo em elementos de uma coleção de valores, usando uma join. Por exemplo:

from Cat as cat
    inner join cat.mate as mate
    left outer join cat.kittens as kitten
from Cat as cat left join cat.mate.kittens as kittens
from Formula form full join form.parameter param

Os tipos de uniões suportados foram inspirados no ANSI SQL:

As construções inteiro, união esquerda externa e união direita externa podem ser abreviadas.

from Cat as cat
    join cat.mate as mate
    left join cat.kittens as kitten

Você pode fornecer condições extras de união usando a palavra chave do HQL with.

from Cat as cat
    left join cat.kittens as kitten
        with kitten.bodyWeight 
> 10.0

A "fetch" join allows associations or collections of values to be initialized along with their parent objects using a single select. This is particularly useful in the case of a collection. It effectively overrides the outer join and lazy declarations of the mapping file for associations and collections. See Seção 20.1, “Estratégias de Busca ” for more information.

from Cat as cat
    inner join fetch cat.mate
    left join fetch cat.kittens

Geralmente, uma união de busca não precisa atribuir um alias, pois o objeto associado não deve ser usado na cláusula where (ou em qualquer outra cláusula). Também, os objetos associados não são retornados diretamente nos resultados da consulta. Ao invés disso, eles devem ser acessados usando o objeto pai. A única razão pela qual precisariamos de um alias é quando fazemos uma união de busca recursivamente em uma coleção adicional:

from Cat as cat
    inner join fetch cat.mate
    left join fetch cat.kittens child
    left join fetch child.kittens

Observe que a construção busca não deve ser usada em consultas invocadas usando iterate() (embora possa ser usado com scroll()). O Fetch também não deve ser usado junto com o setMaxResults() ou setFirstResult() pois essas operações são baseadas nas linhas retornadas, que normalmente contém duplicidade devido à busca das coleções, então o número de linhas pode não ser o que você espera. A Fetch não deve ser usada junto com uma condição with. É possível que seja criado um produto cartesiano pela busca de união em mais do que uma coleção em uma consulta, então tome cuidado nesses casos. Uma busca de união em várias coleções pode trazer resultados inesperados para mapeamentos do tipo bag, tome cuidado na hora de formular consultas como essas. Finalmente, observe o seguinte, a busca de união completa e busca de união direita não são importantes.

Se estiver usando o nível de propriedade busca lazy (com instrumentação de bytecode), é possível forçar o Hibernate a buscar as propriedades lazy imediatamente na primeira consulta, usando buscar todas as propriedades .

from Document fetch all properties order by name
from Document doc fetch all properties where lower(doc.name) like '%cats%'

A cláusula select seleciona quais objetos e propriedades retornam no resultado da consulta. Considere:

select mate
from Cat as cat
    inner join cat.mate as mate

A consulta selecionará mates (parceiros), de outros Cats. Atualmente, podemos expressar a consulta de forma mais compacta como:

select cat.mate from Cat cat

As consultas podem retornar propriedades de qualquer tipo de valor, incluindo propriedades de tipo de componente:

select cat.name from DomesticCat cat
where cat.name like 'fri%'
select cust.name.firstName from Customer as cust

As consultas podem retornar múltiplos objetos e/ou propriedades como uma matriz do tipo Object[]:

select mother, offspr, mate.name
from DomesticCat as mother
    inner join mother.mate as mate
    left outer join mother.kittens as offspr

Ou como um List:

select new list(mother, offspr, mate.name)
from DomesticCat as mother
    inner join mother.mate as mate
    left outer join mother.kittens as offspr

Ou - considerando que a classe Family tenha um construtor apropriado - como um objeto Java typesafe atual:

select new Family(mother, mate, offspr)
from DomesticCat as mother
    join mother.mate as mate
    left join mother.kittens as offspr

Pode-se designar alias à expressões selecionadas usando as:

select max(bodyWeight) as max, min(bodyWeight) as min, count(*) as n
from Cat cat

Isto é bem mais útil quando usado junto comselecione novo mapa:

select new map( max(bodyWeight) as max, min(bodyWeight) as min, count(*) as n )
from Cat cat

Esta consulta retorna um Mapa de referências para valores selecionados.

A cláusula where permite estreitar a lista de instâncias retornadas. Se não houver referência alguma, pode-se referir à propriedades pelo nome:

from Cat where name='Fritz'

Se houver uma referência, use o nome da propriedade qualificada:

from Cat as cat where cat.name='Fritz'

Isto retorna instâncias de Cat com nome ‘Fritz’.

A seguinte consulta:

select foo
from Foo foo, Bar bar
where foo.startDate = bar.date

retornará todas as instâncias de Foo, para cada um que tiver uma instância de bar com a propriedade date igual a propriedade startDate de Foo. Expressões de caminho compostas fazem da cláusula where, extremamente poderosa. Consideremos:

from Cat cat where cat.mate.name is not null

Esta consulta traduz para uma consulta SQL com uma tabela (inner) união. Por exemplo:

from Foo foo
where foo.bar.baz.customer.address.city is not null

resultaria numa consulta que necessitasse de união de quatro tabelas, no SQL.

O operador = pode ser usado para comparar não apenas propriedades, mas também instâncias:

from Cat cat, Cat rival where cat.mate = rival.mate
select cat, mate
from Cat cat, Cat mate
where cat.mate = mate

The special property (lowercase) id can be used to reference the unique identifier of an object. See Seção 15.5, “Referência à propriedade do identificador ” for more information.

from Cat as cat where cat.id = 123

from Cat as cat where cat.mate.id = 69

A segunda consulta é eficiente e não requer nenhuma união de tabelas.

As propriedades de identificadores compostas também podem ser usadas. Considere o seguinte exemplo onde Person possui identificadores compostos que consistem de country e medicareNumber:

from bank.Person person
where person.id.country = 'AU'
    and person.id.medicareNumber = 123456
from bank.Account account
where account.owner.id.country = 'AU'
    and account.owner.id.medicareNumber = 123456

Mais uma vez, a segunda consulta não precisa de nenhuma união de tabela.

See Seção 15.5, “Referência à propriedade do identificador ” for more information regarding referencing identifier properties)

Da mesma forma, a propriedade especial class acessa o valor discriminador da instância, no caso de persistência polimórfica. O nome de uma classe Java inclusa em uma cláusula where, será traduzida para seu valor discriminante.

from Cat cat where cat.class = DomesticCat

You can also use components or composite user types, or properties of said component types. See Seção 15.17, “Componentes” for more information.

Um tipo "any" possui as propriedades id e class especiais, nos permitindo expressar uma união da seguinte forma (onde AuditLog.item é uma propriedade mapeada com<any>):

from AuditLog log, Payment payment
where log.item.class = 'Payment' and log.item.id = payment.id

Veja que log.item.class e payment.class podem referir-se à valores de colunas de banco de dados completamente diferentes, na consulta acima.

As expressões permitidas na cláusula where incluem o seguinte:

in e between podem ser usadas da seguinte maneira:

from DomesticCat cat where cat.name between 'A' and 'B'
from DomesticCat cat where cat.name in ( 'Foo', 'Bar', 'Baz' )

As formas negativas podem ser escritas conforme segue abaixo:

from DomesticCat cat where cat.name not between 'A' and 'B'
from DomesticCat cat where cat.name not in ( 'Foo', 'Bar', 'Baz' )

Da mesma forma, is null e is not null podem ser usados para testar valores nulos.

Booleanos podem ser facilmente usados em expressões, declarando as substituições da consulta HQL, na configuração do Hibernate:

<property name="hibernate.query.substitutions"
>true 1, false 0</property
>

Isso irá substituir as palavras chave true e falsepelos literais 1 e 0 na tradução do HQL para SQL.

from Cat cat where cat.alive = true

Pode-se testar o tamanho de uma coleção com a propriedade especial size ou a função especial size().

from Cat cat where cat.kittens.size 
> 0
from Cat cat where size(cat.kittens) 
> 0

Para coleções indexadas, você pode se referir aos índices máximo e mínimo, usando as funções minindex e maxindex. Igualmente, pode-se referir aos elementos máximo e mínimo de uma coleção de tipos básicos usando as funções minelement e maxelement. Por exemplo:

from Calendar cal where maxelement(cal.holidays) 
> current_date
from Order order where maxindex(order.items) 
> 100
from Order order where minelement(order.items) 
> 10000

As funções SQL any, some, all, exists, in são suportadas quando passado o elemento ou o conjunto de índices de uma coleção (elements e índices de funções) ou o resultado de uma subconsulta (veja abaixo):

select mother from Cat as mother, Cat as kit
where kit in elements(foo.kittens)
select p from NameList list, Person p
where p.name = some elements(list.names)
from Cat cat where exists elements(cat.kittens)
from Player p where 3 
> all elements(p.scores)
from Show show where 'fizard' in indices(show.acts)

Note que essas construções - tamanho, elementos, índices, minindex, maxindex, minelement, maxelement – só podem ser usados na cláusula where do Hibernate3.

Elementos de coleções com índice (matriz, listas, mapas) podem ser referenciadas pelo índice (apenas na cláusula where):

from Order order where order.items[0].id = 1234
select person from Person person, Calendar calendar
where calendar.holidays['national day'] = person.birthDay
    and person.nationality.calendar = calendar
select item from Item item, Order order
where order.items[ order.deliveredItemIndices[0] ] = item and order.id = 11
select item from Item item, Order order
where order.items[ maxindex(order.items) ] = item and order.id = 11

A expressão entre colchetes [] pode ser até uma expressão aritimética:

select item from Item item, Order order
where order.items[ size(order.items) - 1 ] = item

O HQL também provê a função interna index() para elementos de associação um-para-muitos ou coleção de valores.

select item, index(item) from Order order
    join order.items item
where index(item) < 5

Funções escalares SQL, suportadas pelo banco de dados subjacente podem ser usadas:

from DomesticCat cat where upper(cat.name) like 'FRI%'

Se ainda não estiver totalmente convencido, pense o quão maior e menos legível poderia ser a consulta a seguir, em SQL:

select cust
from Product prod,
    Store store
    inner join store.customers cust
where prod.name = 'widget'
    and store.location.name in ( 'Melbourne', 'Sydney' )
    and prod = all elements(cust.currentOrder.lineItems)

Hint: algo como:

SELECT cust.name, cust.address, cust.phone, cust.id, cust.current_order
FROM customers cust,
    stores store,
    locations loc,
    store_customers sc,
    product prod
WHERE prod.name = 'widget'
    AND store.loc_id = loc.id
    AND loc.name IN ( 'Melbourne', 'Sydney' )
    AND sc.store_id = store.id
    AND sc.cust_id = cust.id
    AND prod.id = ALL(
        SELECT item.prod_id
        FROM line_items item, orders o
        WHERE item.order_id = o.id
            AND cust.current_order = o.id
    )

As consultas do Hibernate, podem ser muito poderosas e complexas. De fato, o poder da linguagem de consulta é um dos pontos principais na distribuição do Hibernate. Aqui temos algumas consultas de exemplo, muito similares a consultas usadas em um projeto recente. Note que a maioria das consultas que você irá escrever, são mais simples que estas.

A consulta a seguir retorna o id de ordenar, número de ítens e o valor total do ordenar para todos os ordenar não pagos para um cliente particular e valor total mínimo dado, ordenando os resultados por valor total. Para determinar os preços, utiliza-se o catálogo atual. A consulta SQL resultante, usando tabelas ORDER, ORDER_LINE, PRODUCT, CATALOG e PRICE, têm quatro uniões inteiras e uma subseleção (não correlacionada).

select order.id, sum(price.amount), count(item)
from Order as order
    join order.lineItems as item
    join item.product as product,
    Catalog as catalog
    join catalog.prices as price
where order.paid = false
    and order.customer = :customer
    and price.product = product
    and catalog.effectiveDate < sysdate
    and catalog.effectiveDate 
>= all (
        select cat.effectiveDate
        from Catalog as cat
        where cat.effectiveDate < sysdate
    )
group by order
having sum(price.amount) 
> :minAmount
order by sum(price.amount) desc

Que monstro! Na verdade, na vida real, eu não sou muito afeiçoado à subconsultas, então minha consulta seria mais parecida com isto:

select order.id, sum(price.amount), count(item)
from Order as order
    join order.lineItems as item
    join item.product as product,
    Catalog as catalog
    join catalog.prices as price
where order.paid = false
    and order.customer = :customer
    and price.product = product
    and catalog = :currentCatalog
group by order
having sum(price.amount) 
> :minAmount
order by sum(price.amount) desc

A próxima consulta conta o número de pagamentos em cada status, excluindo todos os pagamentos no status AWAITING_APPROVAL, onde a mais recente mudança de status foi feita pelo usuário atual. Traduz-se para uma consulta SQL com duas uniões inteiras e uma subseleção correlacionada, nas tabelas PAYMENT, PAYMENT_STATUS e PAYMENT_STATUS_CHANGE .

select count(payment), status.name
from Payment as payment
    join payment.currentStatus as status
    join payment.statusChanges as statusChange
where payment.status.name <
> PaymentStatus.AWAITING_APPROVAL
    or (
        statusChange.timeStamp = (
            select max(change.timeStamp)
            from PaymentStatusChange change
            where change.payment = payment
        )
        and statusChange.user <
> :currentUser
    )
group by status.name, status.sortOrder
order by status.sortOrder

Se eu tivesse mapeado a coleção statusChanges como um List, ao invés de um Set, a consulta teria sido muito mais simples de escrever.

select count(payment), status.name
from Payment as payment
    join payment.currentStatus as status
where payment.status.name <
> PaymentStatus.AWAITING_APPROVAL
    or payment.statusChanges[ maxIndex(payment.statusChanges) ].user <
> :currentUser
group by status.name, status.sortOrder
order by status.sortOrder

A próxima consulta usa a função isNull() do Servidor MS SQL, para retornar todas as contas e pagamentos não efetuados para a organização, para aquele que o usuário atual pertencer. Traduz-se para uma consulta SQL com três uniões inteiras, uma união externa e uma subseleção nas tabelas ACCOUNT, PAYMENT, PAYMENT_STATUS, ACCOUNT_TYPE, ORGANIZATION e ORG_USER .

select account, payment
from Account as account
    left outer join account.payments as payment
where :currentUser in elements(account.holder.users)
    and PaymentStatus.UNPAID = isNull(payment.currentStatus.name, PaymentStatus.UNPAID)
order by account.type.sortOrder, account.accountNumber, payment.dueDate

Para alguns bancos de dados, precisaremos eliminar a subseleção (correlacionada).

select account, payment
from Account as account
    join account.holder.users as user
    left outer join account.payments as payment
where :currentUser = user
    and PaymentStatus.UNPAID = isNull(payment.currentStatus.name, PaymentStatus.UNPAID)
order by account.type.sortOrder, account.accountNumber, payment.dueDate

Pode-se contar o número de resultados da consulta, sem realmente retorná-los:

( (Integer) session.createQuery("select count(*) from ....").iterate().next() ).intValue()

Para ordenar um resultado pelo tamanho de uma coleção, use a consulta a seguir.

select usr.id, usr.name
from User as usr
    left join usr.messages as msg
group by usr.id, usr.name
order by count(msg)

Se seu banco de dados suporta subseleções, pode-se colocar uma condição sobre tamanho de seleção na cláusula where da sua consulta:

from User usr where size(usr.messages) 
>= 1

Se seu banco de dados não suporta subseleções, use a consulta a seguir:

select usr.id, usr.name
from User usr
    join usr.messages msg
group by usr.id, usr.name
having count(msg) 
>= 1

Com essa solução não se pode retornar um User sem nenhuma menssagem, por causa da união inteira, a forma a seguir também é útil:

select usr.id, usr.name
from User as usr
    left join usr.messages as msg
group by usr.id, usr.name
having count(msg) = 0

As propriedades de um JavaBean podem ser limitadas à parâmetros nomeados da consulta:

Query q = s.createQuery("from foo Foo as foo where foo.name=:name and foo.size=:size");

q.setProperties(fooBean); // fooBean has getName() and getSize()
List foos = q.list();

As coleções são pagináveis, usando a interface Query com um filtro:

Query q = s.createFilter( collection, "" ); // the trivial filter

q.setMaxResults(PAGE_SIZE);
q.setFirstResult(PAGE_SIZE * pageNumber);
List page = q.list();

Os elementos da coleção podem ser ordenados ou agrupados usando um filtro de consulta:

Collection orderedCollection = s.filter( collection, "order by this.amount" );

Collection counts = s.filter( collection, "select this.type, count(this) group by this.type" );

Pode-se achar o tamanho de uma coleção sem inicializá-la:

( (Integer) session.createQuery("select count(*) from ....").iterate().next() ).intValue();

O Hibernate provê uma API de consulta por critério intuitiva e extensível.

Um critério individual de consulta é uma instância da interface org.hibernate.criterion.Criterion. A classe org.hibernate.criterion.Restrictions define os métodos da fábrica para obter certos tipos de Criterion pré fabricados.

List cats = sess.createCriteria(Cat.class)

    .add( Restrictions.like("name", "Fritz%") )
    .add( Restrictions.between("weight", minWeight, maxWeight) )
    .list();

Restrições podem ser logicamente agrupadas.

List cats = sess.createCriteria(Cat.class)

    .add( Restrictions.like("name", "Fritz%") )
    .add( Restrictions.or(
        Restrictions.eq( "age", new Integer(0) ),
        Restrictions.isNull("age")
    ) )
    .list();
List cats = sess.createCriteria(Cat.class)

    .add( Restrictions.in( "name", new String[] { "Fritz", "Izi", "Pk" } ) )
    .add( Restrictions.disjunction()
        .add( Restrictions.isNull("age") )
        .add( Restrictions.eq("age", new Integer(0) ) )
        .add( Restrictions.eq("age", new Integer(1) ) )
        .add( Restrictions.eq("age", new Integer(2) ) )
    ) )
    .list();

Existe um grande número de critérios pré-fabricados (subclasses de Restrictions). Um dos mais úteis permite especificar o SQL diretamente.

List cats = sess.createCriteria(Cat.class)

    .add( Restrictions.sqlRestriction("lower({alias}.name) like lower(?)", "Fritz%", Hibernate.STRING) )
    .list();

O parâmetro {alias} será substituido pelo alias da entidade procurada.

Uma maneira alternativa de obter um critério é apartir de uma instância Property. Você pode criar uma Property chamando Property.forName():



Property age = Property.forName("age");
List cats = sess.createCriteria(Cat.class)
    .add( Restrictions.disjunction()
        .add( age.isNull() )
        .add( age.eq( new Integer(0) ) )
        .add( age.eq( new Integer(1) ) )
        .add( age.eq( new Integer(2) ) )
    ) )
    .add( Property.forName("name").in( new String[] { "Fritz", "Izi", "Pk" } ) )
    .list();

Através da navegação de associações usando createCriteria(), você pode especificar restrições por entidades relacionadas:

List cats = sess.createCriteria(Cat.class)

    .add( Restrictions.like("name", "F%") )
    .createCriteria("kittens")
        .add( Restrictions.like("name", "F%") )
    .list();

Note que o segundo createCriteria() retorna uma nova instância de Criteria, que refere aos elementos da coleção kittens.

A seguinte forma alternada é útil em certas circunstâncias:

List cats = sess.createCriteria(Cat.class)

    .createAlias("kittens", "kt")
    .createAlias("mate", "mt")
    .add( Restrictions.eqProperty("kt.name", "mt.name") )
    .list();

(createAlias() não cria uma nova instância de Criteria.)

Note que as coleções de kittens mantidas pelas instâncias Cat, retornadas pelas duas consultas anteriores não são pré-filtradas pelo critério. Se você desejar recuperar somente os kittens que se encaixarem ao critérios, você deverá usar um ResultTransformer.

List cats = sess.createCriteria(Cat.class)

    .createCriteria("kittens", "kt")
        .add( Restrictions.eq("name", "F%") )
    .setResultTransformer(Criteria.ALIAS_TO_ENTITY_MAP)
    .list();
Iterator iter = cats.iterator();
while ( iter.hasNext() ) {
    Map map = (Map) iter.next();
    Cat cat = (Cat) map.get(Criteria.ROOT_ALIAS);
    Cat kitten = (Cat) map.get("kt");
}

Você pode ainda manipular o conjunto do resultado usando a junção exterior restante:

                List cats = session.createCriteria( Cat.class )
                       .createAlias("mate", "mt", Criteria.LEFT_JOIN, Restrictions.like("mt.name", "good%") )
                       .addOrder(Order.asc("mt.age"))
                       .list();
        
        

Isto retornará todos os Cats com um mate (amigo) cujo nome inicia com "bom" ordenado pela idade de seu mate e todos os cats que não tem mates. Isto é útil quando houver necessidade de pedir ou limitar a prioridade do banco de dados em retornar conjuntos de resultado complexo/grande e remover muitas instâncias onde consultas múltiplas deveriam ter sido executadas e os resultados unidos pelo java em memória.

Sem este recurso, o primeiro de todos os cats sem um mate teria que ser carregado em uma consulta.

Uma segunda consulta teria que restaurar os cats com os mates cujos os nomes iniciem com "bom" selecionados pelas idades dos mates.

A terceira, em memória; as listas teriam que ser unidas manualmente.

A classe org.hibernate.criterion.Projections é uma fábrica para instâncias de Projection. Você pode aplicar uma projeção à uma consulta, chamando o setProjection().

List results = session.createCriteria(Cat.class)

    .setProjection( Projections.rowCount() )
    .add( Restrictions.eq("color", Color.BLACK) )
    .list();
List results = session.createCriteria(Cat.class)

    .setProjection( Projections.projectionList()
        .add( Projections.rowCount() )
        .add( Projections.avg("weight") )
        .add( Projections.max("weight") )
        .add( Projections.groupProperty("color") )
    )
    .list();

Não há necessidade de um "agrupamento por" explícito em uma consulta por critério. Certos tipos de projeção são definidos para serem projeções de agrupamento, que também aparecem em uma cláusula agrupamento porSQL.

Um alias pode ser atribuído de forma opcional à uma projeção, assim o valor projetado pode ser referenciado em restrições ou ordenações. Aqui seguem duas formas diferentes para fazer isto:

List results = session.createCriteria(Cat.class)

    .setProjection( Projections.alias( Projections.groupProperty("color"), "colr" ) )
    .addOrder( Order.asc("colr") )
    .list();
List results = session.createCriteria(Cat.class)

    .setProjection( Projections.groupProperty("color").as("colr") )
    .addOrder( Order.asc("colr") )
    .list();

Os métodos alias() e as() simplesmente envolvem uma instância de projeção à outra instância de Projeção em alias. Como um atalho, você poderá atribuir um alias quando adicionar a projeção à uma lista de projeção:

List results = session.createCriteria(Cat.class)

    .setProjection( Projections.projectionList()
        .add( Projections.rowCount(), "catCountByColor" )
        .add( Projections.avg("weight"), "avgWeight" )
        .add( Projections.max("weight"), "maxWeight" )
        .add( Projections.groupProperty("color"), "color" )
    )
    .addOrder( Order.desc("catCountByColor") )
    .addOrder( Order.desc("avgWeight") )
    .list();
List results = session.createCriteria(Domestic.class, "cat")

    .createAlias("kittens", "kit")
    .setProjection( Projections.projectionList()
        .add( Projections.property("cat.name"), "catName" )
        .add( Projections.property("kit.name"), "kitName" )
    )
    .addOrder( Order.asc("catName") )
    .addOrder( Order.asc("kitName") )
    .list();

Você também pode usar um Property.forName() para expressar projeções:

List results = session.createCriteria(Cat.class)

    .setProjection( Property.forName("name") )
    .add( Property.forName("color").eq(Color.BLACK) )
    .list();
List results = session.createCriteria(Cat.class)

    .setProjection( Projections.projectionList()
        .add( Projections.rowCount().as("catCountByColor") )
        .add( Property.forName("weight").avg().as("avgWeight") )
        .add( Property.forName("weight").max().as("maxWeight") )
        .add( Property.forName("color").group().as("color" )
    )
    .addOrder( Order.desc("catCountByColor") )
    .addOrder( Order.desc("avgWeight") )
    .list();

A classe DetachedCriteria deixa você criar uma consulta fora do escopo de uma sessão, e depois executá-la usando alguma Session arbitrária.

DetachedCriteria query = DetachedCriteria.forClass(Cat.class)

    .add( Property.forName("sex").eq('F') );
    
Session session = ....;
Transaction txn = session.beginTransaction();
List results = query.getExecutableCriteria(session).setMaxResults(100).list();
txn.commit();
session.close();

Um DetachedCriteria também pode ser usado para expressar uma subconsulta. As instâncias de critérios, que envolvem subconsultas, podem ser obtidas através das Subqueries ou Property.

DetachedCriteria avgWeight = DetachedCriteria.forClass(Cat.class)

    .setProjection( Property.forName("weight").avg() );
session.createCriteria(Cat.class)
    .add( Property.forName("weight").gt(avgWeight) )
    .list();
DetachedCriteria weights = DetachedCriteria.forClass(Cat.class)

    .setProjection( Property.forName("weight") );
session.createCriteria(Cat.class)
    .add( Subqueries.geAll("weight", weights) )
    .list();

Até mesmo as subconsultas correlacionadas são possíveis:

DetachedCriteria avgWeightForSex = DetachedCriteria.forClass(Cat.class, "cat2")

    .setProjection( Property.forName("weight").avg() )
    .add( Property.forName("cat2.sex").eqProperty("cat.sex") );
session.createCriteria(Cat.class, "cat")
    .add( Property.forName("weight").gt(avgWeightForSex) )
    .list();

Você também pode expressar consultas no dialeto SQL nativo de seu banco de dados. Isto é bastante útil para usar recursos específicos do banco de dados, assim como dicas de consultas ou a palavra chave em Oracle CONNECT. Ele também oferece um caminho de migração limpo de uma aplicação baseada em SQL/JDBC direta até o Hibernate.

O Hibernate3 permite que você especifique o SQL escrito à mão, incluindo procedimentos armazenados, para todas as operações de criar, atualizar, deletar e carregar.

A execução de consultas SQL nativa é controlada através da interface SQLQuery que é obtido, chamando a Session.createSQLQuery(). As seções abaixo descrevem como usar este API para consultas.

A consulta SQL mais básica é obter uma lista dos escalares (valores).

sess.createSQLQuery("SELECT * FROM CATS").list();

sess.createSQLQuery("SELECT ID, NAME, BIRTHDATE FROM CATS").list();

Eles irão retornar uma matriz de Lista de Objeto (Object[]) com valores escalares para cada coluna na tabela CATS. O Hibernate usará o ResultSetMetadata para deduzir a ordem atual e tipos de valores escalares retornados.

Para evitar o uso do ResultSetMetadata ou simplesmente para ser mais explícito em o quê é retornado, você poderá usar o addScalar():

sess.createSQLQuery("SELECT * FROM CATS")

 .addScalar("ID", Hibernate.LONG)
 .addScalar("NAME", Hibernate.STRING)
 .addScalar("BIRTHDATE", Hibernate.DATE)

Esta consulta especificou:

Este ainda irá retornar as matrizes de Objeto, mas desta vez ele não usará o ResultSetMetdata, ao invés disso, obterá explicitamente a coluna de ID, NOME e DATA DE NASCIMENTO como respectivamente uma Longa, String e Curta a partir do conjunto de resultados adjacentes. Isto também significa que somente estas três colunas irão retornar, embora a consulta esteja utilizando * e possa retornar mais do que três colunas listadas.

É possível deixar de fora o tipo de informação para todos ou alguns dos escalares.

sess.createSQLQuery("SELECT * FROM CATS")

 .addScalar("ID", Hibernate.LONG)
 .addScalar("NAME")
 .addScalar("BIRTHDATE")

Esta é a mesma consulta de antes, mas desta vez, o ResultSetMetaData é utilizado para decidir o tipo de NOME e DATA DE NASCIMENTO onde o tipo de ID é explicitamente especificado.

Como o java.sql.Types retornados do ResultSetMetadata é mapeado para os tipos Hibernate, ele é controlado pelo Dialeto. Se um tipo específico não é mapeado ou não resulta no tipo esperado, é possível padronizá-lo através de chamadas para registerHibernateType no Dialeto.

Até aqui, os nomes de colunas do conjunto de resultados são considerados como sendo os mesmos que os nomes de colunas especificados no documento de mapeamento. Isto pode ser problemático para as consultas SQL, que une tabelas múltiplas, uma vez que os mesmos nomes de colunas podem aparecer em mais de uma tabela.

É necessário uma injeção de alias de coluna na seguinte consulta (a qual é bem provável que falhe):

sess.createSQLQuery("SELECT c.*, m.*  FROM CATS c, CATS m WHERE c.MOTHER_ID = c.ID")

 .addEntity("cat", Cat.class)
 .addEntity("mother", Cat.class)

A intenção para esta consulta é retornar duas instâncias Cat por linha: um cat e sua mãe. Isto irá falhar pois existe um conflito de nomes, são mapeados aos mesmos nomes de colunas e em alguns bancos de dados os aliases de colunas retornadas estarão, muito provavelmente, na forma de "c.ID", "c.NOME", etc., os quais não são iguais às colunas especificadas no mapeamento ("ID" e "NOME").

A seguinte forma não é vulnerável à duplicação do nome de coluna:

sess.createSQLQuery("SELECT {cat.*}, {mother.*}  FROM CATS c, CATS m WHERE c.MOTHER_ID = c.ID")

 .addEntity("cat", Cat.class)
 .addEntity("mother", Cat.class)

Esta consulta especificou:

A anotação {cat.*} e {mãe.*} usada acima, é um atalho para "todas as propriedades". De forma alternativa, você pode listar as colunas explicitamente, mas até neste caso nós deixamos o Hibernate injetar os aliases de coluna SQL para cada propriedade. O espaço reservado para um alias de coluna é simplesmente o nome de propriedade qualificado pelo alias de tabela. No seguinte exemplo, recuperamos os Cats e suas mães de uma tabela diferente (cat_log) para aquele declarado no metadado de mapeamentos. Note que podemos até usar os aliases de propriedade na cláusula where se quisermos.

String sql = "SELECT ID as {c.id}, NAME as {c.name}, " +

         "BIRTHDATE as {c.birthDate}, MOTHER_ID as {c.mother}, {mother.*} " +
         "FROM CAT_LOG c, CAT_LOG m WHERE {c.mother} = c.ID";
List loggedCats = sess.createSQLQuery(sql)
        .addEntity("cat", Cat.class)
        .addEntity("mother", Cat.class).list()

Consultas SQL Nomeadas podem ser definidas no documento de mapeamento e chamadas exatamente da mesma forma que uma consulta HQL nomeada. Neste caso nós não precisamos chamar o addEntity().


<sql-query name="persons">
    <return alias="person" class="eg.Person"/>
    SELECT person.NAME AS {person.name},
           person.AGE AS {person.age},
           person.SEX AS {person.sex}
    FROM PERSON person
    WHERE person.NAME LIKE :namePattern
</sql-query
>
List people = sess.getNamedQuery("persons")

    .setString("namePattern", namePattern)
    .setMaxResults(50)
    .list();

Os elementos <return-join> e <load-collection> são usados para unir associações e definir consultas que inicializam coleções,


<sql-query name="personsWith">
    <return alias="person" class="eg.Person"/>
    <return-join alias="address" property="person.mailingAddress"/>
    SELECT person.NAME AS {person.name},
           person.AGE AS {person.age},
           person.SEX AS {person.sex},
           address.STREET AS {address.street},
           address.CITY AS {address.city},
           address.STATE AS {address.state},
           address.ZIP AS {address.zip}
    FROM PERSON person
    JOIN ADDRESS address
        ON person.ID = address.PERSON_ID AND address.TYPE='MAILING'
    WHERE person.NAME LIKE :namePattern
</sql-query
>

Uma consulta SQL nomeada pode devolver um valor escalar. Você deve declarar um alias de coluna e um tipo Hibernate usando o elemento <return-scalar>:


<sql-query name="mySqlQuery">
    <return-scalar column="name" type="string"/>
    <return-scalar column="age" type="long"/>
    SELECT p.NAME AS name,
           p.AGE AS age,
    FROM PERSON p WHERE p.NAME LIKE 'Hiber%'
</sql-query
>

Você pode externar as informações de mapeamento de conjunto de resultado em um elemento <resultset> tanto para reusá-los em diversas consultas nomeadas quanto através da API setResultSetMapping().


<resultset name="personAddress">
    <return alias="person" class="eg.Person"/>
    <return-join alias="address" property="person.mailingAddress"/>
</resultset>

<sql-query name="personsWith" resultset-ref="personAddress">
    SELECT person.NAME AS {person.name},
           person.AGE AS {person.age},
           person.SEX AS {person.sex},
           address.STREET AS {address.street},
           address.CITY AS {address.city},
           address.STATE AS {address.state},
           address.ZIP AS {address.zip}
    FROM PERSON person
    JOIN ADDRESS address
        ON person.ID = address.PERSON_ID AND address.TYPE='MAILING'
    WHERE person.NAME LIKE :namePattern
</sql-query
>

Você pode também, como forma alternativa, usar a informação de mapeamento de conjunto de resultado em seus arquivos hbm em código de java.

List cats = sess.createSQLQuery(

        "select {cat.*}, {kitten.*} from cats cat, cats kitten where kitten.mother = cat.id"
    )
    .setResultSetMapping("catAndKitten")
    .list();

Com a <return-property> você pode informar explicitamente, quais aliases de coluna utilizar, ao invés de usar a sintáxe {} para deixar o Hibernate injetar seus próprios aliases. Por exemplo:


<sql-query name="mySqlQuery">
    <return alias="person" class="eg.Person">
        <return-property name="name" column="myName"/>
        <return-property name="age" column="myAge"/>
        <return-property name="sex" column="mySex"/>
    </return>
    SELECT person.NAME AS myName,
           person.AGE AS myAge,
           person.SEX AS mySex,
    FROM PERSON person WHERE person.NAME LIKE :name
</sql-query>

<return-property> também funciona com colunas múltiplas. Isto resolve a limitação com a sintáxe {} que não pode permitir controle granulado fino de muitas propriedades de colunas múltiplas.


<sql-query name="organizationCurrentEmployments">
    <return alias="emp" class="Employment">
        <return-property name="salary">
            <return-column name="VALUE"/>
            <return-column name="CURRENCY"/>
        </return-property>
        <return-property name="endDate" column="myEndDate"/>
    </return>
        SELECT EMPLOYEE AS {emp.employee}, EMPLOYER AS {emp.employer},
        STARTDATE AS {emp.startDate}, ENDDATE AS {emp.endDate},
        REGIONCODE as {emp.regionCode}, EID AS {emp.id}, VALUE, CURRENCY
        FROM EMPLOYMENT
        WHERE EMPLOYER = :id AND ENDDATE IS NULL
        ORDER BY STARTDATE ASC
</sql-query
>

Observe que neste exemplo nós usamos <return-property> combinado à síntáxe {} para injeção. Permite que os usuários escolham como eles querem se referir à coluna e às propriedades.

Se seu mapeamento possuir um discriminador, você deve usar <return-discriminator> para especificar a coluna do discriminador.

O Hibernate 3 apresenta o suporte para consultas através de procedimentos e funções armazenadas. A maior parte da documentação a seguir, é equivalente para ambos. Os procedimentos e funções armazenados devem devolver um conjunto de resultados como primeiros parâmetros externos para poder trabalhar com o Hibernate. Um exemplo disto é a função armazenada em Oracle 9 e versões posteriores como se segue:


CREATE OR REPLACE FUNCTION selectAllEmployments
    RETURN SYS_REFCURSOR
AS
    st_cursor SYS_REFCURSOR;
BEGIN
    OPEN st_cursor FOR
 SELECT EMPLOYEE, EMPLOYER,
 STARTDATE, ENDDATE,
 REGIONCODE, EID, VALUE, CURRENCY
 FROM EMPLOYMENT;
      RETURN  st_cursor;
 END;

Para usar esta consulta no Hibernate você vai precisar mapeá-lo através de uma consulta nomeada


<sql-query name="selectAllEmployees_SP" callable="true">
    <return alias="emp" class="Employment">
        <return-property name="employee" column="EMPLOYEE"/>
        <return-property name="employer" column="EMPLOYER"/>
        <return-property name="startDate" column="STARTDATE"/>
        <return-property name="endDate" column="ENDDATE"/>
        <return-property name="regionCode" column="REGIONCODE"/>
        <return-property name="id" column="EID"/>
        <return-property name="salary">
            <return-column name="VALUE"/>
            <return-column name="CURRENCY"/>
        </return-property>
    </return>
    { ? = call selectAllEmployments() }
</sql-query
>

Observe que os procedimentos armazenados somente devolvem escalares e entidades. O <return-join> e <load-collection> não são suportados.

Para usar procedimentos armazenados com Hibernate, os procedimentos e funções precisam seguir a mesma regra. Caso não sigam estas regras, não poderão ser usados com o Hibernate. Se você ainda desejar usar estes procedimentos, terá que executá-los através da session.connection(). As regras são diferentes para cada banco de dados, uma vez que os fabricantes possuem procedimentos de semânticas/sintáxe armazenados.

Consultas de procedimento armazenado não podem ser paginados com o setFirstResult()/setMaxResults().

O formulário de chamada recomedado é o padrão SQL92: { ? = call functionName(<parameters>) } or { ? = call procedureName(<parameters>}. A sintáxe de chamada nativa não é suportada.

As seguintes regras se aplicam para Oracle:

Para servidores Sybase ou MS SQL aplicam-se as seguintes regras:

Hibernate3 can use custom SQL for create, update, and delete operations. The SQL can be overridden at the statement level or inidividual column level. This section describes statement overrides. For columns, see Seção 5.7, “Coluna de expressöes de gravação e leitura”.

A persistência de classe e coleção no Hibernate já contém um conjunto de strings gerados por tempo de configuração (insertsql, deletesql, updatesql etc.). O mapeamento das tags <sql-insert>, <sql-delete>, e <sql-update> sobrescreve essas strings:


<class name="Person">
    <id name="id">
        <generator class="increment"/>
    </id>
    <property name="name" not-null="true"/>
    <sql-insert
>INSERT INTO PERSON (NAME, ID) VALUES ( UPPER(?), ? )</sql-insert>
    <sql-update
>UPDATE PERSON SET NAME=UPPER(?) WHERE ID=?</sql-update>
    <sql-delete
>DELETE FROM PERSON WHERE ID=?</sql-delete>
</class
>

O SQL é executado diretamente no seu banco de dados, então você pode usar qualquer linguagem que quiser. Isto com certeza reduzirá a portabilidade do seu mapeamento se você utilizar um SQL para um banco de dados específico.

Os procedimentos armazenados são suportados se a função callable estiver ativada:


<class name="Person">
    <id name="id">
        <generator class="increment"/>
    </id>
    <property name="name" not-null="true"/>
    <sql-insert callable="true"
>{call createPerson (?, ?)}</sql-insert>
    <sql-delete callable="true"
>{? = call deletePerson (?)}</sql-delete>
    <sql-update callable="true"
>{? = call updatePerson (?, ?)}</sql-update>
</class
>

A ordem de posições dos parâmetros são vitais, pois eles devem estar na mesma seqüência esperada pelo Hibernate.

Você pode ver a ordem esperada ativando o debug logging no ní­vel org.hibernate.persister.entity. Com este ní­vel ativado, o Hibernate irá imprimir o SQL estático que foi usado para criar, atualizar, deletar, etc., entidades. Para ver a seqüência esperada, lembre-se de não incluir seu SQL padronizado no arquivo de mapeamento, pois ele irá sobrescrever o SQL estático gerado pelo Hibernate.

Os procedimentos armazenados são na maioria dos casos requeridos para retornar o número de linhas inseridas/atualizadas/deletadas, uma vez que o Hibernate possui algumas verificações em tempo de espera para o sucesso das instruções. O Hibernate sempre registra o primeiro parâmetro da instrução como um parâmetro de saída numérica para as operações CUD:

CREATE OR REPLACE FUNCTION updatePerson (uid IN NUMBER, uname IN VARCHAR2)
    RETURN NUMBER IS
BEGIN

    update PERSON
    set
        NAME = uname,
    where
        ID = uid;

    return SQL%ROWCOUNT;

END updatePerson;

You can also declare your own SQL (or HQL) queries for entity loading. As with inserts, updates, and deletes, this can be done at the individual column level as described in Seção 5.7, “Coluna de expressöes de gravação e leitura” or at the statement level. Here is an example of a statement level override:


<sql-query name="person">
    <return alias="pers" class="Person" lock-mode="upgrade"/>
    SELECT NAME AS {pers.name}, ID AS {pers.id}
    FROM PERSON
    WHERE ID=?
    FOR UPDATE
</sql-query
>

Este é apenas uma instrução de consulta nomeada, como discutido anteriormente. Você pode referenciar esta consulta nomeada em um mapeamento de classe:


<class name="Person">
    <id name="id">
        <generator class="increment"/>
    </id>
    <property name="name" not-null="true"/>
    <loader query-ref="person"/>
</class
>

Este também funciona com procedimentos armazenados.

Você pode também definir uma consulta para carregar uma coleção:


<set name="employments" inverse="true">
    <key/>
    <one-to-many class="Employment"/>
    <loader query-ref="employments"/>
</set
>

<sql-query name="employments">
    <load-collection alias="emp" role="Person.employments"/>
    SELECT {emp.*}
    FROM EMPLOYMENT emp
    WHERE EMPLOYER = :id
    ORDER BY STARTDATE ASC, EMPLOYEE ASC
</sql-query
>

Você pode até definir um carregador de entidade que carregue uma coleção por busca de união:


<sql-query name="person">
    <return alias="pers" class="Person"/>
    <return-join alias="emp" property="pers.employments"/>
    SELECT NAME AS {pers.*}, {emp.*}
    FROM PERSON pers
    LEFT OUTER JOIN EMPLOYMENT emp
        ON pers.ID = emp.PERSON_ID
    WHERE ID=?
</sql-query
>

O Hibernate3 provê um novo método inovador para manusear dados com regras de "visibilidade". Um Filtro do Hibernate é um filtro global, nomeado e parametrizado que pode ser habilitado ou não dentro de uma Sessão do Hibernate.

O Hibernate3 tem a habilidade de pré-definir os critérios do filtro e anexar esses filtros no nível da classe e no nível da coleção. Um critério do filtro é a habilidade de definir uma cláusula restritiva muito semelhante à função "where" disponível para a classe e várias coleções. A não ser que essas condições de filtros possam ser parametrizadas. A aplicação pode, então decidir, em tempo de execução, se os filtros definidos devem estar habilitados e quais valores seus parâmetros devem ter. Os filtros podem ser usados como Views de bancos de dados, mas com parâmetros dentro da aplicação.

Para usar esses filtros, eles devem inicialmente ser definidos e anexados aos elementos do mapeamento apropriados. Para definir um filtro, use o elemento <filter-def/> dentro do elemento <hibernate-mapping/>:


<filter-def name="myFilter">
    <filter-param name="myFilterParam" type="string"/>
</filter-def
>

Esse filtro pode ser acoplado à uma classe:


<class name="myClass" ...>
    ...
    <filter name="myFilter" condition=":myFilterParam = MY_FILTERED_COLUMN"/>
</class
>

Ou, à uma coleção:


<set ...>
    <filter name="myFilter" condition=":myFilterParam = MY_FILTERED_COLUMN"/>
</set
>

Ou, mesmo para ambos (ou muitos de cada) ao mesmo tempo.

Os métodos na Session são: enableFilter(String filterName), getEnabledFilter(String filterName) e disableFilter(String filterName). Por padrão, os filtros não são habilitados dentro de qualquer sessão. Eles devem ser explicitamente habilitados usando o método Session.enabledFilter(), que retorna uma instância da interface Filter. Usando o filtro simples definido acima, o código se pareceria com o seguinte:

session.enableFilter("myFilter").setParameter("myFilterParam", "some-value");

Veja que os métodos da interface org.hibernate.Filter permite o encadeamento do método, comum à maioria das funções do Hibernate.

Um exemplo completo, usando dados temporais com um padrão de datas de registro efetivo:


<filter-def name="effectiveDate">
    <filter-param name="asOfDate" type="date"/>
</filter-def>

<class name="Employee" ...>
...
    <many-to-one name="department" column="dept_id" class="Department"/>
    <property name="effectiveStartDate" type="date" column="eff_start_dt"/>
    <property name="effectiveEndDate" type="date" column="eff_end_dt"/>
...
    <!--
        Note that this assumes non-terminal records have an eff_end_dt set to
        a max db date for simplicity-sake
    -->
    <filter name="effectiveDate"
            condition=":asOfDate BETWEEN eff_start_dt and eff_end_dt"/>
</class>

<class name="Department" ...>
...
    <set name="employees" lazy="true">
        <key column="dept_id"/>
        <one-to-many class="Employee"/>
        <filter name="effectiveDate"
                condition=":asOfDate BETWEEN eff_start_dt and eff_end_dt"/>
    </set>
</class
>

Para garantir que você sempre tenha registro efetivos, simplesmente habilite o filtro na sessão antes de recuperar os dados dos empregados:

Session session = ...;

session.enableFilter("effectiveDate").setParameter("asOfDate", new Date());
List results = session.createQuery("from Employee as e where e.salary 
> :targetSalary")
         .setLong("targetSalary", new Long(1000000))
         .list();

No HQL acima, mesmo que tenhamos mencionado apenas uma restrição de salário nos resultados, por causa do filtro habilitado, a consulta retornará apenas os funcionários ativos cujo salário é maior que um milhão de dólares.

Nota: se você planeja usar filtros com união externa (por HQL ou por busca de carga) seja cuidadoso quanto à direção da expressão de condição. É mais seguro configurá-lo para uma união externa esquerda. Coloque o parâmetro primeiro seguido pelo(s) nome(s) da coluna após o operador.

Após ser definido, o filtro deve ser anexado às entidades múltiplas e/ou coleções, cada uma com sua própria condição. Isto pode ser tedioso quando as condições se repetem. Assim, usando o <filter-def/> permite denifir uma condição padrão, tanto como uma função quanto CDATA:


<filter-def name="myFilter" condition="abc 
> xyz"
>...</filter-def>
<filter-def name="myOtherFilter"
>abc=xyz</filter-def
>

Esta condição padrão será utilizada todas as vezes que um filtro for anexado a algo sem uma condição específica. Note que isto significa que você pode dar uma condição específica como parte de um anexo de filtro que substitua a condição padrão neste caso em particular.

XML Mapping is an experimental feature in Hibernate 3.0 and is currently under active development.

O Hibernate permite que se trabalhe com dados persistentes em XML quase da mesma maneira como você trabalha com POJOs persistentes. Uma árvore XML analisada, pode ser considerada como apenas uma maneira de representar os dados relacionais como objetos, ao invés dos POJOs.

O Hibernate suporta a API dom4j para manipular árvores XML. Você pode escrever queries que retornem árvores dom4j do banco de dados e automaticamente sincronizar com o banco de dados qualquer modificação feita nessas árvores. Você pode até mesmo pegar um documento XML, analisá-lo usando o dom4j, e escrever as alterações no banco de dados usando quaisquer operações básicas do Hibernate: persist(), saveOrUpdate(),merge(), delete(), replicate() (a mesclagem ainda não é suportada)

Essa funcionalidade tem várias aplicações incluindo importação/exportação de dados, externalização de dados de entidade via JMS or SOAP e relatórios usando XSLT.

Um mapeamento simples pode ser usado para simultaneamente mapear propriedades da classe e nós de um documento XML para um banco de dados ou, se não houver classe para mapear, pode ser usado simplesmente para mapear o XML.

Muitos elementos do mapeamento do Hibernate aceitam a função node. Através dele, você pode especificar o nome de uma função ou elemento XML que contenha a propriedade ou os dados da entidade. O formato da função node deve ser o seguinte:

Para coleções e associações de valores simples, existe uma função adicional embed-xml. Se a função embed-xml="true", que é o valor padrão, a árvore XML para a entidade associada (ou coleção de determinado tipo de valor) será embutida diretamente na árvore XML que contém a associação. Por outro lado, se embed-xml="false", então apenas o valor do identificador referenciado irá aparecer no XML para associações simples e as coleções simplesmente não irão aparecer.

Você precisa tomar cuidado para não deixar o embed-xml="true" para muitas associações, pois o XML não suporta bem referências circulares.


<class name="Customer"
        table="CUSTOMER" 
        node="customer">
        
    <id name="id" 
            column="CUST_ID" 
            node="@id"/>
            
    <map name="accounts" 
            node="." 
            embed-xml="true">
        <key column="CUSTOMER_ID" 
                not-null="true"/>
        <map-key column="SHORT_DESC" 
                node="@short-desc" 
                type="string"/>
        <one-to-many entity-name="Account"
                embed-xml="false" 
                node="account"/>
    </map>
    
    <component name="name" 
            node="name">
        <property name="firstName" 
                node="first-name"/>
        <property name="initial" 
                node="initial"/>
        <property name="lastName" 
                node="last-name"/>
    </component>
    
    ...
    
</class
>

Nesse caso, decidimos incorporar a coleção de ids de contas, e não os dados de contas. Segue a abaixo a consulta HQL:

from Customer c left join fetch c.accounts where c.lastName like :lastName

Retornaria um conjunto de dados como esse:


<customer id="123456789">
    <account short-desc="Savings"
>987632567</account>
    <account short-desc="Credit Card"
>985612323</account>
    <name>
        <first-name
>Gavin</first-name>
        <initial
>A</initial>
        <last-name
>King</last-name>
    </name>
    ...
</customer
>

Se você ajustar embed-xml="true" em um mapeamento <one-to-many>, os dados se pareceriam com o seguinte:


<customer id="123456789">
    <account id="987632567" short-desc="Savings">
        <customer id="123456789"/>
        <balance
>100.29</balance>
    </account>
    <account id="985612323" short-desc="Credit Card">
        <customer id="123456789"/>
        <balance
>-2370.34</balance>
    </account>
    <name>
        <first-name
>Gavin</first-name>
        <initial
>A</initial>
        <last-name
>King</last-name>
    </name>
    ...
</customer
>

Vamos reler e atualizar documentos em XML em nossa aplicação. Nós fazemos isso obtendo uma sessão do dom4j:

Document doc = ....;

       
Session session = factory.openSession();
Session dom4jSession = session.getSession(EntityMode.DOM4J);
Transaction tx = session.beginTransaction();
List results = dom4jSession
    .createQuery("from Customer c left join fetch c.accounts where c.lastName like :lastName")
    .list();
for ( int i=0; i<results.size(); i++ ) {
    //add the customer data to the XML document
    Element customer = (Element) results.get(i);
    doc.add(customer);
}
tx.commit();
session.close();
Session session = factory.openSession();

Session dom4jSession = session.getSession(EntityMode.DOM4J);
Transaction tx = session.beginTransaction();
Element cust = (Element) dom4jSession.get("Customer", customerId);
for ( int i=0; i<results.size(); i++ ) {
    Element customer = (Element) results.get(i);
    //change the customer name in the XML and database
    Element name = customer.element("name");
    name.element("first-name").setText(firstName);
    name.element("initial").setText(initial);
    name.element("last-name").setText(lastName);
}
tx.commit();
session.close();

É extremamente útil combinar essa funcionalidade com a operação replicate() do Hibernate para implementar importação/exportação de dados baseados em XML.

Uma estratégia de busca é a estratégia que o Hibernate irá usar para recuperar objetos associados se a aplicação precisar navegar pela associação. Estratégias de Busca podem ser declaradas nos metadados de mapeamento O/R, ou sobrescritos por uma consulta HQL ou consulta com Criteria.

Hibernate3 define as seguintes estratégias de busca:

O Hibernate distingue também entre:

Nós temos aqui duas noções ortogonais: quando a associação é buscada e como ela é buscada. É importante que você não os confuda. Nós usamos fetch para ajustar o desempenho. Podemos usar lazy para definir um contrato para qual dado é sempre disponível em qualquer instância desconectada de uma classe particular.

Por padrão, o Hibernate3 usa busca preguiçosa para coleções e busca preguiçosa com proxy para associações de um valor. Esses padrões fazem sentido para quase todas as associações em quase todas a aplicações.

Se você ajustar hibernate. default_batch_fetch_size, o Hibernate irá usar otimização de busca em lote para a busca preguiçosa. Essa otimização pode ser também habilitada em um nível mais fino.

Perceba que o acesso a associações preguiçosas fora do contexto de uma sessão aberta do Hibernate irá resultar numa exceção. Por exemplo:

= sessions.openSession();

Transaction tx = s.beginTransaction();
            
User u = (User) s.createQuery("from User u where u.name=:userName")
    .setString("userName", userName).uniqueResult();
Map permissions = u.getPermissions();
tx.commit();
s.close();
Integer accessLevel = (Integer) permissions.get("accounts");  // Error!

Como a coleção de permissões não foi inicializada quando a Session for fechada, a coleção não poderá carregar o seu estado. O Hibernate não suporta inicialização preguiçosa para objetos desconectados. Para consertar isso, é necessário mover o código que carrega a coleção para logo antes da transação ser submetida.

Alternativamente, nós podemos usar uma coleção ou associação não preguiçosa, especificando lazy="false" para o mapeamento da associação. Porém, é pretendido que a inicialização preguiçosa seja usada por quase todas as coleções e associações. Se você definir muitas associações não preguiçosas em seu modelo de objetos, o Hibernate irá precisar buscar no banco de dados inteiro da memória em cada transação.

Por outro lado, nós geralmente escolhemos a busca de união (que não é preguiçosa por natureza) ao invés do selecionar busca em uma transação particular. Nós agora veremos como customizar a estratégia de busca. No Hibernate3, os mecanismos para escolher a estratégia de busca são idênticos para as associações de valor único e para coleções.

O padrão selecionar busca, é extremamente vunerável aos problemas de seleção N+1, então habilitaremos a busca de união no documento de mapeamento:


<set name="permissions"
            fetch="join">
    <key column="userId"/>
    <one-to-many class="Permission"/>
</set

<many-to-one name="mother" class="Cat" fetch="join"/>

A estratégia de fetch definida no documento de mapeamento afeta:

Independentemente da estratégia de busca que você usar, o gráfico não preguiçoso definido será certamente carregado na memória. Note que isso irá resultar em diversas seleções imediatas sendo usadas para rodar uma consulta HQL em particular.

Geralmente, não usamos documentos de mapeamento para customizar as buscas. Ao invés disso, nós deixamos o comportamento padrão e sobrescrevemos isso em uma transação em particular, usando left join fetch no HQL. Isso diz ao Hibernate para buscar a associação inteira no primeiro select, usando uma união externa. Na API de busca Criteria, você irá usar setFetchMode(FetchMode.JOIN).

Se você quiser mudar a estratégia de busca usada pelo get() ou load(), simplesmente use uma consulta por Criteria, por exemplo:

User user = (User) session.createCriteria(User.class)

                .setFetchMode("permissions", FetchMode.JOIN)
                .add( Restrictions.idEq(userId) )
                .uniqueResult();

Isto é o equivalente do Hibernate para o que algumas soluções ORM chamam de "plano de busca".

Um meio totalmente diferente de evitar problemas com selects N+1 é usar um cache de segundo nível.

A recuperação preguiçosa para coleções é implementada usando uma implementação própria do Hibernate para coleções persistentes. Porém, é necessário um mecanismo diferente para comportamento preguiçoso em associações de final único. A entidade alvo da associação precisa usar um proxy. O Hibernate implementa proxies para inicialização preguiçosa em objetos persistentes usando manipulação de bytecode, através da excelente biblioteca CGLIB.

Por padrão, o Hibernate3 gera proxies (na inicialização) para todas as classes persistentes que os usem para habilitar recuperação preguiçosa de associações many-to-one e one-to-one.

O arquivo de mapeamento deve declarar uma interface para usar como interface de proxy para aquela classe, com a função proxy. Por padrão, o Hibernate usa uma subclasse dessa classe. Note que a classe a ser usada via proxy precisa implementar o construtor padrão com pelo menos visibilidade de package. Nós recomendamos esse construtor para todas as classes persistentes.

Existe alguns truques que você deve saber quando estender esse comportamento para classes polimórficas. Por exemplo:


<class name="Cat" proxy="Cat">
    ......
    <subclass name="DomesticCat">
        .....
    </subclass>
</class
>

Primeiramente, instâncias de Cat nunca serão convertidas para DomesticCat, mesmo que a instância em questão seja uma instância de DomesticCat:

Cat cat = (Cat) session.load(Cat.class, id);  // instantiate a proxy (does not hit the db)

if ( cat.isDomesticCat() ) {                  // hit the db to initialize the proxy
    DomesticCat dc = (DomesticCat) cat;       // Error!
    ....
}

E, segundo, é possível quebrar o proxy ==:

Cat cat = (Cat) session.load(Cat.class, id);            // instantiate a Cat proxy

DomesticCat dc = 
        (DomesticCat) session.load(DomesticCat.class, id);  // acquire new DomesticCat proxy!
System.out.println(cat==dc);                            // false

Porém a situação não é tão ruim como parece. Mesmo quando temos duas referências para objetos proxies diferentes, a instância adjacente será do mesmo objeto:

cat.setWeight(11.0);  // hit the db to initialize the proxy

System.out.println( dc.getWeight() );  // 11.0

E por terceiro, você não pode usar um proxy CGLIB em uma classe final ou com quaisquer métodos final.

Finalmente, se o seu objeto persistente adquirir qualquer recurso durante a instanciação (ex. em inicializadores ou construtor padrão), então esses recursos serão adquiridos pelo proxy também. A classe de proxy é uma subclasse da classe persistente.

Esses problemas se dão devido à limitação originária do modelo de herança simples do Java. Se você quiser evitar esses problemas em suas classes persistentes você deve implementar uma interface que declare seus métodos comerciais. Você deve especificar essas interfaces no arquivo de mapeamento onde CatImpl implementa a interface Cat e DomesticCatImpl implementa a interface DomesticCat. Por exemplo:


<class name="CatImpl" proxy="Cat">
    ......
    <subclass name="DomesticCatImpl" proxy="DomesticCat">
        .....
    </subclass>
</class
>

Então, os proxies para instâncias de Cat e DomesticCat podem ser retornadas pelo load() ou iterate().

Cat cat = (Cat) session.load(CatImpl.class, catid);

Iterator iter = session.createQuery("from CatImpl as cat where cat.name='fritz'").iterate();
Cat fritz = (Cat) iter.next();

Relacionamentos são também inicializados de forma preguiçosa. Isso significa que você precisa declarar qualquer propriedade como sendo do tipo Cat, e não CatImpl.

Algumas operações não requerem inicialização por proxy:

O Hibernate irá detectar classes persistentes que sobrescrevem equals() ou hashCode().

Escolhendo lazy="no-proxy" ao invés do padrão lazy="proxy", podemos evitar problemas associados com typecasting. Porém, iremos precisar de instrumentação de bytecode em tempo de compilação e todas as operações irão resultar em inicializações de proxy imediatas.

Será lançada uma LazyInitializationException se uma coleção não inicializada ou proxy for acessado fora do escopo da Session, isto é, quando a entidade que contém a coleção ou que possua a referência ao proxy estiver no estado desanexado.

Algumas vezes precisamos garantir que o proxy ou coleção é inicializado antes de fechar a Session. Claro que sempre podemos forçar a inicialização chamando cat.getSex() ou cat.getKittens().size(), por exemplo. Mas isto parece confuso para quem lê o código e não é conveniente para códigos genéricos.

Os métodos estáticos Hibernate.initialize() e Hibernate.isInitialized() favorecem a aplicação para trabalhar com coleções ou proxies inicializados de forma preguiçosa. O Hibernate.initialize(cat) irá forçar a inicialização de um proxy, cat, contanto que a Session esteja ainda aberta. Hibernate.initialize (cat.getKittens() ) tem um efeito similar para a coleção de kittens.

Uma outra opção é manter a Session aberta até que todas as coleções e os proxies necessários sejam carregados. Em algumas arquiteturas de aplicações, particularmente onde o código que acessa os dados usando Hibernate e o código que os usa, se encontram em diferentes camadas da aplicação ou diferentes processos físicos, será um problema garantir que a Session esteja aberta quando uma coleção for inicializada. Existem dois caminhos básicos para lidar com esse problema:

Às vezes você não quer inicializar uma coleção muito grande, mas precisa de algumas informações, como o mesmo tamanho, ou um subconjunto de seus dados.

Você pode usar um filtro de coleção para saber seu tamanho sem inicializá-la:

( (Integer) s.createFilter( collection, "select count(*)" ).list().get(0) ).intValue()

O método createFilter() é usado também para retornar algus dados de uma coleção eficientemente sem precisar inicializar a coleção inteira:

s.createFilter( lazyCollection, "").setFirstResult(0).setMaxResults(10).list();

O Hibernate pode fazer uso eficiente de busca em lote, ou seja o Hibernate pode carregar diversos proxies não inicializados, se um proxy for acessado (ou coleções). A busca em lote é uma otimização da estratégia da busca de seleção lazy. Existem duas maneiras para você usar a busca em lote: no nível da classe ou no nível da coleção.

A recuperação em lote para classes/entidades é mais fácil de entender. Imagine que você tem a seguinte situação em tempo de execução: você tem 25 instâncias de Cat carregadas em uma Session, cada Cat possui uma referência ao seu owner, que é da classe Person. A classe Person é mapeada com um proxy, lazy="true". Se você interar sobre todos os Cat's e chamar getOwner() em cada, o Hibernate irá por padrão executar 25 comandos SELECT(), para buscar os proxies de owners. Você pode melhorar esse comportamento especificando um batch-size no mapeamento da classe Person:


<class name="Person" batch-size="10"
>...</class
>

O Hibernate irá executar agora apenas três consultas; o padrão é 10, 10, 5.

Você também pode habilitar busca em lote de uma coleção. Por exemplo, se cada Person tem uma coleção preguiçosa de Cats e 10 persons estão já carregadas em uma Session, serão gerados 10 SELECTs ao se interar todas as persons, um para cada chamada de getCats(). Se você habilitar busca em lote para a coleção de cats no mapeamento da classe Person, o Hibernate pode fazer uma pré carga das coleções:


<class name="Person">
    <set name="cats" batch-size="3">
        ...
    </set>
</class
>

Com um batch-size de 3, o Hibernate irá carregar 3, 3, 3, 1 coleções em 4 SELECTs. Novamente, o valor da função depende do número esperado de coleções não inicializadas em determinada Session.

A busca em lote de coleções é particularmente útil quando você tem uma árvore encadeada de ítens, ex.: o típico padrão bill-of-materials (Se bem que um conjunto encadeado ou caminho materializado pode ser uma opção melhor para árvores com mais leitura.

Outra forma de afetar a estratégia de busca para o carregamento de objetos associados é através do chamado perfil de busca, que é uma associação de configuração de nomeada com o org.hibernate.SessionFactory, porém ativado pelo nome no org.hibernate.Session. Uma vez ativado no org.hibernate.Session, o perfil de busca será afetado pelo org.hibernate.Session até que o mesmo seja completamente desativado.

O que isto significa? A explicação será através de um exemplo. Vamos dizer que nós temos os seguintes mapeamentos:


<hibernate-mapping>
    <class name="Customer">
        ...
        <set name="orders" inverse="true">
            <key column="cust_id"/>
            <one-to-many class="Order"/>
        </set>
    </class>
    <class name="Order">
        ...
    </class>
</hibernate-mapping
>

Normalmente, quando você recebe uma referência para um cliente em particular, o conjunto do cliente de pedidos será lento, significando que nós ainda não baixamos estes pedidos a partir do banco de dados. Na maioria das vezes isto é bom. Agora vamos imaginar que você possui um determinado caso de uso, onde é mais eficiente carregar o cliente e outros pedidos juntos. Uma maneira correta é utilizar as estratégias de "busca dinâmica" através de um HQL ou consultas de critério. Entretanto, outra opção é usar um perfil de busca para atingir o mesmo objeto. Apenas adicione o seguinte a seu mapeamento:


<hibernate-mapping>
    ...
    <fetch-profile name="customer-with-orders">
        <fetch entity="Customer" association="orders" style="join"/>
    </fetch-profile>
</hibernate-mapping
>

ou ainda:


<hibernate-mapping>
    <class name="Customer">
        ...
        <fetch-profile name="customer-with-orders">
            <fetch association="orders" style="join"/>
        </fetch-profile>
    </class>
    ...
</hibernate-mapping
>

Agora que o código seguinte irá carregar ambos cliente e outros pedidos:



    Session session = ...;
    session.enableFetchProfile( "customer-with-orders" );  // name matches from mapping
    Customer customer = (Customer) session.get( Customer.class, customerId );

Apenas os perfis de busca em estilo são suportados, mas planeja-se o suporte de estilos adicionais. Consulte HHH-3414 para maiores detalhes.

O Hibernate3 suporta a busca lazy de propriedades individuais. Essa técnica de otimização é também conhecida como grupos de busca. Veja que esta é mais uma característica de marketing já que na prática, é mais importante a otimização nas leituras dos registros do que na leitura das colunas. Porém, carregar apenas algumas propriedades de uma classe pode ser útil em casos extremos, onde tabelas legadas podem ter centenas de colunas e o modelo de dados não pode ser melhorado.

Para habilitar a carga de propriedade lazy, é preciso ajustar a função lazy no seu mapeamento de propriedade:


<class name="Document">
       <id name="id">
        <generator class="native"/>
    </id>
    <property name="name" not-null="true" length="50"/>
    <property name="summary" not-null="true" length="200" lazy="true"/>
    <property name="text" not-null="true" length="2000" lazy="true"/>
</class
>

A carga de propriedades lazy requer instrumentação de bytecode. Se suas classes persistentes não forem melhoradas, o Hibernate irá ignorar silenciosamente essa configuração e usará a busca imediata.

Para instrumentação de bytecode, use a seguinte tarefa do Ant:


<target name="instrument" depends="compile">
    <taskdef name="instrument" classname="org.hibernate.tool.instrument.InstrumentTask">
        <classpath path="${jar.path}"/>
        <classpath path="${classes.dir}"/>
        <classpath refid="lib.class.path"/>
    </taskdef>

    <instrument verbose="true">
        <fileset dir="${testclasses.dir}/org/hibernate/auction/model">
            <include name="*.class"/>
        </fileset>
    </instrument>
</target
>

Uma forma diferente de evitar leitura de coluna desnecessária, ao menos para transações de somente leitura, deve-se usar os recursos de projeção do HQL ou consultas por Critério. Isto evita a necessidade de processamento de bytecode em build-time e é certamente uma melhor solução.

Você pode forçar a busca antecipada comum de propriedades usando buscar todas as propriedades no HQL.

Uma Session do Hibernate é um cache de nível transacional de dados persistentes. É possível configurar um cluster ou um cache de nível JVM (nível SessionFactory) em uma estrutura classe por classe e coleção por coleção. Você pode até mesmo plugar em um cache em cluster. Tenha cuidado, pois os caches nunca sabem das mudanças feitas em armazenamento persistente por um outro aplicativo. No entanto, eles podem ser configurados para dados em cache vencido regularmente.

Você tem a opção de informar o Hibernate sobre qual implementação de cache utilizar, especificando o nome de uma classe que implementa org.hibernate.cache.CacheProvider usando a propriedade hibernate.cache.provider_class. O Hibernate vem envolvido com um número de integrações construídas com provedores de cache de fonte aberta (listados abaixo). Além disso, você pode implementar seu próprio e plugá-lo como mencionado acima. Note que as versões anteriores ao padrão 3.2 utilizam EhCache como provedor de cache padrão.


O elemento <cache> de uma classe ou mapeamento de coleção possui a seguinte forma:

<cache
    usage="tra(1)nsactional|read-write|nonstrict-read-write|read-only"
    region="Re(2)gionName"
    include="a(3)ll|non-lazy"
/>

1

uso (solicitado) especifica a estratégia de cache: transacional, leitura-escrita, leitura-escrita não estrito ou somente leitura

2

region (opcional: padrão à classe ou nome papel da coleção): especifica o nome da região do cache de segundo nível

3

include (opcional: padrão para all) non-lazy: especifica que a propriedade da entidade mapeada com lazy="true" pode não estar em cache quando o nível da função busca lazy for habilitada

De forma alternativa, você poderá especificar os elementos <class-cache> e <collection-cache> em hibernate.cfg.xml.

A função uso especifica uma estratégia de concorrência de cache.

Quando passar um objeto para save(), update() ou saveOrUpdate() e quando recuperar um objeto usando um load(), get(), list(), iterate() ou scroll(), este objeto será adicionado ao cache interno da Session.

Quando o flush() for subsequentemente chamado, o estado deste objeto será sincronizado com o banco de dados. Se você não desejar que esta sincronização aconteça ou se você estiver processando uma grande quantidade de objetos e precisar gerenciar a memória de forma eficiente, o método evict() pode ser usado para remover o objeto de suas coleções de cache de primeiro nível.

ScrollableResult cats = sess.createQuery("from Cat as cat").scroll(); //a huge result set

while ( cats.next() ) {
    Cat cat = (Cat) cats.get(0);
    doSomethingWithACat(cat);
    sess.evict(cat);
}

A Session também oferece um métodocontains() para determinar se uma instância pertence ao cache de sessão.

Para despejar completamente todos os objetos do cache de Sessão, chame Session.clear()

Para o cache de segundo nível, existem métodos definidos na SessionFactory para despejar o estado de cache de uma instância, classe inteira, instância de coleção ou papel de coleção inteiro.

sessionFactory.evict(Cat.class, catId); //evict a particular Cat

sessionFactory.evict(Cat.class);  //evict all Cats
sessionFactory.evictCollection("Cat.kittens", catId); //evict a particular collection of kittens
sessionFactory.evictCollection("Cat.kittens"); //evict all kitten collections

O CacheMode controla como uma sessão em particular interage com o cache de segundo nível:

Para navegar o conteúdo do segundo nível ou região de cache de consulta, use oStatistics API:

Map cacheEntries = sessionFactory.getStatistics()

        .getSecondLevelCacheStatistics(regionName)
        .getEntries();

Você precisará habilitar estatísticas e, opcionalmente, forçar o Hibernate a manter as entradas de cache em um formato mais compreensível:

hibernate.generate_statistics true
hibernate.cache.use_structured_entries true

O conjunto de resultado de consulta pode também estar em cache. Isto é útil, somente para consultas que são rodadas freqüentemente com os mesmos parâmetros.

A aplicação do cache nos resultados de consulta introduz alguns resultados referentes o seu processamento transacional normal de aplicações. Por exemplo, se você realizar o cache nos resultados de uma consulta do Person Hibernate, você precisará acompanhar quando estes resultados deverão ser inválidos devido alterações salvas no Person. Tudo isto, acompanhado com o fato de que a maioria dos aplicativos não recebem benefício algum ao realizar o cache nos resultados da consulta, levando o Hibernate a desativar o cache de resultados de consulta por padrão. Para uso do cache de consulta, você primeiro precisa ativar o cache de consulta:

hibernate.cache.use_query_cache true

Esta configuração cria duas novas regiões de cache:

Conforme mencionado acima, a maioria das consultas não se beneficiam do cache ou de seus resultados. Portanto por padrão, as consultas individuais não estão em cache mesmo depois de ativar o cache de consulta. Para habilitar o caching de resultados, chame org.hibernate.Query.setCacheable(true). Esta chamada permite que a consulta procure por resultados de caches existentes ou adicione seus resultados ao cache quando for executado.

Nas seções anteriores nós descrevemos as coleções e seus aplicativos. Nesta seção nós exploraremos mais problemas em relação às coleções no período de execução.

O Hibernate define três tipos básicos de coleções:

A classificação distingue as diversas tabelas e relacionamento de chave externa, mas não nos diz tudo que precisamos saber sobre o modelo relacional. Para entender completamente a estrutura relacional e as características de desempenho, devemos também considerar a estrutura da chave primária que é usada pelo Hibernate para atualizar ou deletar linhas de coleções. Isto sugere a seguinte classificação:

Todas as coleções indexadas (mapas, listas, matrizes) possuem uma chave primária, que consiste em colunas <key> e <index>. Neste caso, as atualizações de coleção são geralmente muito eficientes. A chave primária pode ser indexada de forma eficiente e uma linha em particular pode ser localizada de forma eficiente quando o Hibernate tentar atualizar ou deletá-la.

Os conjuntos possuem uma chave primária que consiste em <key> e colunas de elemento. Isto pode ser menos eficiente para alguns tipos de elementos de coleções, especialmente elementos compostos ou textos grandes ou ainda campos binários. O banco de dados pode não ser capaz de indexar uma chave primária complexa de forma tão eficiente. Por um outro lado, para associações um-para-muitos ou muitos-para-muitos, especialmente no caso de identificadores sintáticos, é bem provável que seja tão eficiente quanto. Se você quiser que o SchemaExport crie para você uma chave primária de um <set> você deverá declarar todas as colunas como not-null="true".

Os mapeamentos <idbag> definem uma chave substituta, para que elas sejam sempre muito eficientes ao atualizar. Na verdade, este é o melhor caso.

As Bags são os piores casos. Como uma bag permite duplicar valores de elementos e não possui coluna de índice, não se deve definir nenhuma chave primária. O Hibernate não tem como distinguir entre linhas duplicadas. O Hibernate resolve este problema, removendo completamente em um único DELETE e recria a coleção quando mudar. Isto pode ser bastante ineficiente.

Note que para uma associação um-para-muitos, a chave primária pode não ser a chave primária física da tabela do banco de dados, mas mesmo neste caso, a classificação acima é ainda útil. Isto reflete como o Hibernate "localiza" linhas individuais da coleção.

A otimização não é muito usada sem o monitoramento e acesso ao número de desempenho. O Hibernate oferece uma grande variedade de números sobre suas operações internas. Estatísticas em Hibernate estão disponíveis através do SessionFactory.

Você poderá acessar as métricas da SessionFactory de duas formas. Sua primeira opção é chamar a sessionFactory.getStatistics() e ler ou dispôr as Estatísticas você mesmo.

O Hibernate também usa o JMX para publicar métricas se você habilitar o MBean de StatisticsService. Você deve habiliar um MBean único para todas as suas SessionFactory ou uma por factory. Veja o seguinte código para exemplos de configurações minimalísticos:

// MBean service registration for a specific SessionFactory

Hashtable tb = new Hashtable();
tb.put("type", "statistics");
tb.put("sessionFactory", "myFinancialApp");
ObjectName on = new ObjectName("hibernate", tb); // MBean object name
StatisticsService stats = new StatisticsService(); // MBean implementation
stats.setSessionFactory(sessionFactory); // Bind the stats to a SessionFactory
server.registerMBean(stats, on); // Register the Mbean on the server
// MBean service registration for all SessionFactory's

Hashtable tb = new Hashtable();
tb.put("type", "statistics");
tb.put("sessionFactory", "all");
ObjectName on = new ObjectName("hibernate", tb); // MBean object name
StatisticsService stats = new StatisticsService(); // MBean implementation
server.registerMBean(stats, on); // Register the MBean on the server

Você pode (des)ativar o monitoramento para uma SessionFactory:

As estatísticas podem ser reajsutadas de forma programática, usando o método clear(). Um resumo pode ser enviado para o usuário (nível de info) usando o método logSummary().

O Hibernate oferece um número de métricas, desde informações bem básicas até especializadas, somente relevantes a certos cenários. Todos os contadores disponíveis estão descritos na API da interface Statistics, em três categorias:

Por exemplo, você pode verificar a coincidência de um cache, perder e colocar a relação entre as entidades, colações e consultas e tempo médio que uma consulta precisa. Esteja ciente de que o número de milisegundos é sujeito a aproximação em Java. O Hibernate é preso à precisão do JVM, em algumas plataformas a precisão chega a ser de 10 segundos.

Os Getters simples são usados para acessar métricas globais (ou seja, não presos à uma entidade em particular, coleção, região de cache, etc.) Você pode acessar as métricas de uma entidade em particular, coleção ou região de cache através de seu nome e através de sua representação de HQL ou SQL para consultas. Por favor consulte a Javadoc API Statistics, EntityStatistics, CollectionStatistics, SecondLevelCacheStatistics, e QueryStatistics para maiores informações. O seguinte código mostra um exemplo simples:

Statistics stats = HibernateUtil.sessionFactory.getStatistics();


double queryCacheHitCount  = stats.getQueryCacheHitCount();
double queryCacheMissCount = stats.getQueryCacheMissCount();
double queryCacheHitRatio =
  queryCacheHitCount / (queryCacheHitCount + queryCacheMissCount);
log.info("Query Hit ratio:" + queryCacheHitRatio);
EntityStatistics entityStats =
  stats.getEntityStatistics( Cat.class.getName() );
long changes =
        entityStats.getInsertCount()
        + entityStats.getUpdateCount()
        + entityStats.getDeleteCount();
log.info(Cat.class.getName() + " changed " + changes + "times"  );

Para trabalhar em todas as entidades, coleções, consultas e caches regionais, você poderá recuperar os nomes de lista de entidades, coleções, consultas e caches regionais com os seguintes métodos: getQueries(), getEntityNames(), getCollectionRoleNames(), e getSecondLevelCacheRegionNames().

É possível realizar uma engenharia de roundtrip com o Hibernate, usando um conjunto de plug-ins de Eclipse, ferramentas de linha de comando, assim como tarefas Ant.

As Ferramentas do Hibernate atualmente incluem os plug-ins para o IDE de Eclipse assim como as tarefas para reverter a engenharia dos bancos de dados existentes:

  • Editor de Mapeamento: um editor para mapeamento de arquivos XML do Hibernate, suportando a auto complexão e destaque de sintáxe. Ele também suporta a auto complexão da semântica para nomes de classes e nomes de propriedade/campo, fazendo com que ele seja mais versátil do que um editor XML normal.

  • Console: o console é uma nova visão em Eclipse. Além disso, para uma visão geral de árvore de suas configurações de console, você também pode obter uma visão interativa de suas classes persistentes e seus relacionamentos. O console permite que você execute as consultas HQL junto ao banco de dados e navegue o resultado diretamente em Eclipse.

  • Assistentes de Desenvolvimento: são oferecidos diversos assistentes com as ferramentas de Eclipse do Hibernate. Você pode usar o assistente para gerar rapidamente arquivos de configuração do Hibernate (cfg.xml), ou você pode também reverter completamente o engenheiro, um esquema de banco de dados existente, para arquivos de fonte POJO e arquivos de mapeamento do Hibernate. O assistente de engenharia reversa suporta modelos padronizáveis.

Por favor, consulte o pacote Ferramentas do Hibernate e suas documentações para maiores informações.

No entanto, o pacote principal do Hibernate vem em lote com uma ferramenta integrada: SchemaExport aka hbm2ddl. Ele pode também ser usado dentro do Hibernate.

O DDL pode ser gerado a partir dos arquivos de mapeamento através dos utilitários do Hibernate. O esquema gerado inclui as restrições de integridade referencial, primária e chave estrangeira, para entidade e tabela de coleção. Tabelas e seqüência são também criadas por geradores de identificador mapeado.

Você deve especificar um SQL Dialect através da propriedade hibernate.dialect ao usar esta ferramenta, uma vez que o DDL é um fabricante bastante específico.

Primeiro, padronize seus arquivos de mapeamento para melhorar o esquema gerado. A próxima seção cobrirá a personalização do esquema.

Muitos elementos de mapeamento do Hibernate definem funções opcionais nomeadas length, precision e scale. Você deve ajustar o length, precision e scale de uma coluna com esta função.


<property name="zip" length="5"/>

<property name="balance" precision="12" scale="2"/>

Algumas tags aceitam uma função not-null para gerar uma restrição NOT NULLnas colunas de tabela e uma função unique para gerar uma restrição UNIQUE em colunas de tabela.


<many-to-one name="bar" column="barId" not-null="true"/>

<element column="serialNumber" type="long" not-null="true" unique="true"/>

Uma função unique-key pode ser usada para agrupar colunas em uma restrição de chave única. Atualmente, o valor específico da função unique-key não é usada para nomear a restrição no DDL gerado, somente para agrupar as colunas no arquivo de mapeamento.


<many-to-one name="org" column="orgId" unique-key="OrgEmployeeId"/>
<property name="employeeId" unique-key="OrgEmployee"/>

Uma função index especifica o nome de um indexe que será criado, usando a coluna ou colunas mapeada(s). As colunas múltiplas podem ser agrupadas no mesmo indexe, simplesmente especificando o mesmo nome de índice.


<property name="lastName" index="CustName"/>
<property name="firstName" index="CustName"/>

Uma função foreign-key pode ser usada para sobrescrever o nome de qualquer restrição de chave exterior gerada.


<many-to-one name="bar" column="barId" foreign-key="FKFooBar"/>

Muitos elementos de mapeamento também aceitam um elemento filho <column>. Isto é particularmente útil para mapeamento de tipos multi-colunas:


<property name="name" type="my.customtypes.Name"/>
    <column name="last" not-null="true" index="bar_idx" length="30"/>
    <column name="first" not-null="true" index="bar_idx" length="20"/>
    <column name="initial"/>
</property
>

A função default deixa você especificar um valor padrão para uma coluna. Você deve atribuir o mesmo valor à propriedade mapeada antes de salvar uma nova instância da classe mapeada.


<property name="credits" type="integer" insert="false">
    <column name="credits" default="10"/>
</property
>

<version name="version" type="integer" insert="false">
    <column name="version" default="0"/>
</property
>

A função sql-type permite que o usuário sobrescreva o mapeamento padrão de um tipo de Hibernate para um tipo de dados SQL.


<property name="balance" type="float">
    <column name="balance" sql-type="decimal(13,3)"/>
</property
>

A função check permite que você especifique uma restrição de verificação.


<property name="foo" type="integer">
    <column name="foo" check="foo 
> 10"/>
</property
>

<class name="Foo" table="foos" check="bar < 100.0">
    ...
    <property name="bar" type="float"/>
</class
>

A seguinte tabela resume estes atributos opcionais.


O elemento <comment> permite que você especifique comentários para esquema gerado.


<class name="Customer" table="CurCust">
    <comment
>Current customers only</comment>
    ...
</class
>

<property name="balance">
    <column name="bal">
        <comment
>Balance in USD</comment>
    </column>
</property
>

Isto resulta em uma instrução comment on table ou comment on column no DDL gerado, onde é suportado.

Uma das primeiras coisas que um usuário tenta fazer com o Hibernate é modelar um tipo de relacionamento Pai/Filho. Existem duas abordagens diferentes para isto. Por diversas razões diferentes, a abordagem mais conveniente, especialmente para novos usuários, é modelar ambos os Parent e Child como classes de entidade com uma associação <one-to-many> a partir do Parent para o Child. A abordagem alternativa é declarar o Child como um <composite-element>. As semânticas padrões da associação um para muitos (no Hibernate), são muito menos parecidas com as semânticas comuns de um relacionamento pai/filho do que aqueles de um mapeamento de elemento de composição. Explicaremos como utilizar uma associação bidirecional um para muitos com cascatas para modelar um relacionamento pai/filho de forma eficiente e elegante.

Suponha que começamos uma associação <one-to-many> simples de Parent para Child.


<set name="children">
    <key column="parent_id"/>
    <one-to-many class="Child"/>
</set
>

Se fossemos executar o seguinte código:

Parent p = .....;

Child c = new Child();
p.getChildren().add(c);
session.save(c);
session.flush();

O Hibernate editaria duas instruções SQL

Isto não é somente ineficiente como também viola qualquer restrição NOT NULL na coluna parent_id. Nós podemos concertar a violação da restrição de nulabilidade, especificando um not-null="true" no mapeamento da coleção:


<set name="children">
    <key column="parent_id" not-null="true"/>
    <one-to-many class="Child"/>
</set
>

No entanto, esta não é uma solução recomendada.

As causas subjacentes deste comportamento é que o link (a chave exterior parent_id) de p para c não é considerada parte do estado do objeto Child e por isso não é criada no INSERT. Então a solução é fazer uma parte de link do mapeamento do Child.


<many-to-one name="parent" column="parent_id" not-null="true"/>

Nós também precisamos adicionar a propriedade parent à classe do Child.

Agora que a entidade Child está gerenciando o estado do link, informaremos à coleção para não atualizar o link. Utilizamos o atributo inverse para isto:


<set name="children" inverse="true">
    <key column="parent_id"/>
    <one-to-many class="Child"/>
</set
>

O seguinte código seria usado para adicionar um novo Child:

Parent p = (Parent) session.load(Parent.class, pid);

Child c = new Child();
c.setParent(p);
p.getChildren().add(c);
session.save(c);
session.flush();

E agora, somente um SQL INSERT seria editado.

Para assegurar tudo isto, podemos criar um método de addChild() do Parent.

public void addChild(Child c) {

    c.setParent(this);
    children.add(c);
}

Agora, o código que adiciona um Child se parece com este:

Parent p = (Parent) session.load(Parent.class, pid);

Child c = new Child();
p.addChild(c);
session.save(c);
session.flush();

A chamada explícita para save() ainda é incômoda. Iremos nos referir a ela utilizando cascatas.


<set name="children" inverse="true" cascade="all">
    <key column="parent_id"/>
    <one-to-many class="Child"/>
</set
>

Isto simplifica o código acima para:

Parent p = (Parent) session.load(Parent.class, pid);

Child c = new Child();
p.addChild(c);
session.flush();

Da mesma forma, não precisamos repetir este comando com os filhos ao salvar ou deletar um Parent. O comando seguinte irá remover o p e todos os seus filhos do banco de dados.

Parent p = (Parent) session.load(Parent.class, pid);

session.delete(p);
session.flush();

No entanto, este código:

Parent p = (Parent) session.load(Parent.class, pid);

Child c = (Child) p.getChildren().iterator().next();
p.getChildren().remove(c);
c.setParent(null);
session.flush();

não irá remover c do banco de dados. Neste caso, ele somente removerá o link para p e causará uma violação de restrição NOT NULL). Você precisará delete() de forma explícita o Child.

Parent p = (Parent) session.load(Parent.class, pid);

Child c = (Child) p.getChildren().iterator().next();
p.getChildren().remove(c);
session.delete(c);
session.flush();

Agora, no seu caso, um Child não pode existir sem seu pai. Então, se removermos um Child da coleção, não iremos mais querer que ele seja deletado. Devido a isto, devemos utilizar um cascade="all-delete-orphan".


<set name="children" inverse="true" cascade="all-delete-orphan">
    <key column="parent_id"/>
    <one-to-many class="Child"/>
</set
>

Apesar do mapeamento da coleção especificar inverse="true", as cascatas ainda são processadas por repetição dos elementos de coleção. Portanto, se você requiser que um objeto seja salvo, deletado ou atualizado por uma cascata, você deverá adicioná-lo à sua coleção. Chamar setParent() não é o bastante.

Suppose we loaded up a Parent in one Session, made some changes in a UI action and wanted to persist these changes in a new session by calling update(). The Parent will contain a collection of children and, since the cascading update is enabled, Hibernate needs to know which children are newly instantiated and which represent existing rows in the database. We will also assume that both Parent and Child have generated identifier properties of type Long. Hibernate will use the identifier and version/timestamp property value to determine which of the children are new. (See Seção 10.7, “Detecção automática de estado”.) In Hibernate3, it is no longer necessary to specify an unsaved-value explicitly.

O seguinte código atualizará o parent e o child e inserirá um newChild:

//parent and child were both loaded in a previous session

parent.addChild(child);
Child newChild = new Child();
parent.addChild(newChild);
session.update(parent);
session.flush();

Bem, isto cabe bem no caso de um identificador gerado, mas e os identificadores atribuídos e os identificadores de composição? Isto é mais difícil, pois uma vez que o Hibernate não pode utilizar a propriedade do identificador para distinguir entre um objeto instanciado recentemente, com um identificador atribuído pelo usuário, e um objeto carregado em uma sessão anterior. Neste caso, o Hibernate usará tanto um carimbo de data e hora (timestamp) ou uma propriedade de versão, ou irá na verdade consultar um cache de segundo nível, ou no pior dos casos, o banco de dados, para ver se a linha existe.

As classes persistentes representam um weblog, e um item postado em um weblog. Eles não devem ser modelados como um relacionamento padrão pai/filho, mas usaremos uma bolsa ordenada ao invés de um conjunto:

package eg;


import java.util.List;
public class Blog {
    private Long _id;
    private String _name;
    private List _items;
    public Long getId() {
        return _id;
    }
    public List getItems() {
        return _items;
    }
    public String getName() {
        return _name;
    }
    public void setId(Long long1) {
        _id = long1;
    }
    public void setItems(List list) {
        _items = list;
    }
    public void setName(String string) {
        _name = string;
    }
}
package eg;


import java.text.DateFormat;
import java.util.Calendar;
public class BlogItem {
    private Long _id;
    private Calendar _datetime;
    private String _text;
    private String _title;
    private Blog _blog;
    public Blog getBlog() {
        return _blog;
    }
    public Calendar getDatetime() {
        return _datetime;
    }
    public Long getId() {
        return _id;
    }
    public String getText() {
        return _text;
    }
    public String getTitle() {
        return _title;
    }
    public void setBlog(Blog blog) {
        _blog = blog;
    }
    public void setDatetime(Calendar calendar) {
        _datetime = calendar;
    }
    public void setId(Long long1) {
        _id = long1;
    }
    public void setText(String string) {
        _text = string;
    }
    public void setTitle(String string) {
        _title = string;
    }
}

Os mapeamentos XML devem agora ser um tanto diretos. Por exemplo:


<?xml version="1.0"?>
<!DOCTYPE hibernate-mapping PUBLIC
    "-//Hibernate/Hibernate Mapping DTD 3.0//EN"
    "http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd">

<hibernate-mapping package="eg">

    <class
        name="Blog"
        table="BLOGS">

        <id
            name="id"
            column="BLOG_ID">

            <generator class="native"/>

        </id>

        <property
            name="name"
            column="NAME"
            not-null="true"
            unique="true"/>

        <bag
            name="items"
            inverse="true"
            order-by="DATE_TIME"
            cascade="all">

            <key column="BLOG_ID"/>
            <one-to-many class="BlogItem"/>

        </bag>

    </class>

</hibernate-mapping
>

<?xml version="1.0"?>
<!DOCTYPE hibernate-mapping PUBLIC
    "-//Hibernate/Hibernate Mapping DTD 3.0//EN"
    "http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd">

<hibernate-mapping package="eg">

    <class
        name="BlogItem"
        table="BLOG_ITEMS"
        dynamic-update="true">

        <id
            name="id"
            column="BLOG_ITEM_ID">

            <generator class="native"/>

        </id>

        <property
            name="title"
            column="TITLE"
            not-null="true"/>

        <property
            name="text"
            column="TEXT"
            not-null="true"/>

        <property
            name="datetime"
            column="DATE_TIME"
            not-null="true"/>

        <many-to-one
            name="blog"
            column="BLOG_ID"
            not-null="true"/>

    </class>

</hibernate-mapping
>

A seguinte classe demonstra algumas atividades que podemos realizar com estas classes, usando Hibernate:

package eg;


import java.util.ArrayList;
import java.util.Calendar;
import java.util.Iterator;
import java.util.List;
import org.hibernate.HibernateException;
import org.hibernate.Query;
import org.hibernate.Session;
import org.hibernate.SessionFactory;
import org.hibernate.Transaction;
import org.hibernate.cfg.Configuration;
import org.hibernate.tool.hbm2ddl.SchemaExport;
public class BlogMain {
    
    private SessionFactory _sessions;
    
    public void configure() throws HibernateException {
        _sessions = new Configuration()
            .addClass(Blog.class)
            .addClass(BlogItem.class)
            .buildSessionFactory();
    }
    
    public void exportTables() throws HibernateException {
        Configuration cfg = new Configuration()
            .addClass(Blog.class)
            .addClass(BlogItem.class);
        new SchemaExport(cfg).create(true, true);
    }
    
    public Blog createBlog(String name) throws HibernateException {
        
        Blog blog = new Blog();
        blog.setName(name);
        blog.setItems( new ArrayList() );
        
        Session session = _sessions.openSession();
        Transaction tx = null;
        try {
            tx = session.beginTransaction();
            session.persist(blog);
            tx.commit();
        }
        catch (HibernateException he) {
            if (tx!=null) tx.rollback();
            throw he;
        }
        finally {
            session.close();
        }
        return blog;
    }
    
    public BlogItem createBlogItem(Blog blog, String title, String text)
                        throws HibernateException {
        
        BlogItem item = new BlogItem();
        item.setTitle(title);
        item.setText(text);
        item.setBlog(blog);
        item.setDatetime( Calendar.getInstance() );
        blog.getItems().add(item);
        
        Session session = _sessions.openSession();
        Transaction tx = null;
        try {
            tx = session.beginTransaction();
            session.update(blog);
            tx.commit();
        }
        catch (HibernateException he) {
            if (tx!=null) tx.rollback();
            throw he;
        }
        finally {
            session.close();
        }
        return item;
    }
    
    public BlogItem createBlogItem(Long blogid, String title, String text)
                        throws HibernateException {
        
        BlogItem item = new BlogItem();
        item.setTitle(title);
        item.setText(text);
        item.setDatetime( Calendar.getInstance() );
        
        Session session = _sessions.openSession();
        Transaction tx = null;
        try {
            tx = session.beginTransaction();
            Blog blog = (Blog) session.load(Blog.class, blogid);
            item.setBlog(blog);
            blog.getItems().add(item);
            tx.commit();
        }
        catch (HibernateException he) {
            if (tx!=null) tx.rollback();
            throw he;
        }
        finally {
            session.close();
        }
        return item;
    }
    
    public void updateBlogItem(BlogItem item, String text)
                    throws HibernateException {
        
        item.setText(text);
        
        Session session = _sessions.openSession();
        Transaction tx = null;
        try {
            tx = session.beginTransaction();
            session.update(item);
            tx.commit();
        }
        catch (HibernateException he) {
            if (tx!=null) tx.rollback();
            throw he;
        }
        finally {
            session.close();
        }
    }
    
    public void updateBlogItem(Long itemid, String text)
                    throws HibernateException {
    
        Session session = _sessions.openSession();
        Transaction tx = null;
        try {
            tx = session.beginTransaction();
            BlogItem item = (BlogItem) session.load(BlogItem.class, itemid);
            item.setText(text);
            tx.commit();
        }
        catch (HibernateException he) {
            if (tx!=null) tx.rollback();
            throw he;
        }
        finally {
            session.close();
        }
    }
    
    public List listAllBlogNamesAndItemCounts(int max)
                    throws HibernateException {
        
        Session session = _sessions.openSession();
        Transaction tx = null;
        List result = null;
        try {
            tx = session.beginTransaction();
            Query q = session.createQuery(
                "select blog.id, blog.name, count(blogItem) " +
                "from Blog as blog " +
                "left outer join blog.items as blogItem " +
                "group by blog.name, blog.id " +
                "order by max(blogItem.datetime)"
            );
            q.setMaxResults(max);
            result = q.list();
            tx.commit();
        }
        catch (HibernateException he) {
            if (tx!=null) tx.rollback();
            throw he;
        }
        finally {
            session.close();
        }
        return result;
    }
    
    public Blog getBlogAndAllItems(Long blogid)
                    throws HibernateException {
        
        Session session = _sessions.openSession();
        Transaction tx = null;
        Blog blog = null;
        try {
            tx = session.beginTransaction();
            Query q = session.createQuery(
                "from Blog as blog " +
                "left outer join fetch blog.items " +
                "where blog.id = :blogid"
            );
            q.setParameter("blogid", blogid);
            blog  = (Blog) q.uniqueResult();
            tx.commit();
        }
        catch (HibernateException he) {
            if (tx!=null) tx.rollback();
            throw he;
        }
        finally {
            session.close();
        }
        return blog;
    }
    
    public List listBlogsAndRecentItems() throws HibernateException {
        
        Session session = _sessions.openSession();
        Transaction tx = null;
        List result = null;
        try {
            tx = session.beginTransaction();
            Query q = session.createQuery(
                "from Blog as blog " +
                "inner join blog.items as blogItem " +
                "where blogItem.datetime 
> :minDate"
            );
            Calendar cal = Calendar.getInstance();
            cal.roll(Calendar.MONTH, false);
            q.setCalendar("minDate", cal);
            
            result = q.list();
            tx.commit();
        }
        catch (HibernateException he) {
            if (tx!=null) tx.rollback();
            throw he;
        }
        finally {
            session.close();
        }
        return result;
    }
}

Este capítulo mostra algums mapeamentos de associações mais complexos.

O modelo a seguir, do relacionamento entre Employer e Employee utiliza uma entidade de classe atual (Employment) para representar a associação. Isto é feito porque pode-se ter mais do que um período de trabalho para as duas partes envolvidas. Outros Componentes são usados para modelar valores monetários e os nomes do empregado.

Abaixo, segue o documento de um possível mapeamento:


<hibernate-mapping>
        
    <class name="Employer" table="employers">
        <id name="id">
            <generator class="sequence">
                <param name="sequence"
>employer_id_seq</param>
            </generator>
        </id>
        <property name="name"/>
    </class>

    <class name="Employment" table="employment_periods">

        <id name="id">
            <generator class="sequence">
                <param name="sequence"
>employment_id_seq</param>
            </generator>
        </id>
        <property name="startDate" column="start_date"/>
        <property name="endDate" column="end_date"/>

        <component name="hourlyRate" class="MonetaryAmount">
            <property name="amount">
                <column name="hourly_rate" sql-type="NUMERIC(12, 2)"/>
            </property>
            <property name="currency" length="12"/>
        </component>

        <many-to-one name="employer" column="employer_id" not-null="true"/>
        <many-to-one name="employee" column="employee_id" not-null="true"/>

    </class>

    <class name="Employee" table="employees">
        <id name="id">
            <generator class="sequence">
                <param name="sequence"
>employee_id_seq</param>
            </generator>
        </id>
        <property name="taxfileNumber"/>
        <component name="name" class="Name">
            <property name="firstName"/>
            <property name="initial"/>
            <property name="lastName"/>
        </component>
    </class>

</hibernate-mapping
>

E abaixo, segue o esquema da tabela gerado pelo SchemaExport.

create table employers (
    id BIGINT not null, 
    name VARCHAR(255), 
    primary key (id)
)

create table employment_periods (
    id BIGINT not null,
    hourly_rate NUMERIC(12, 2),
    currency VARCHAR(12), 
    employee_id BIGINT not null, 
    employer_id BIGINT not null, 
    end_date TIMESTAMP, 
    start_date TIMESTAMP, 
    primary key (id)
)

create table employees (
    id BIGINT not null, 
    firstName VARCHAR(255), 
    initial CHAR(1), 
    lastName VARCHAR(255), 
    taxfileNumber VARCHAR(255), 
    primary key (id)
)

alter table employment_periods 
    add constraint employment_periodsFK0 foreign key (employer_id) references employers
alter table employment_periods 
    add constraint employment_periodsFK1 foreign key (employee_id) references employees
create sequence employee_id_seq
create sequence employment_id_seq
create sequence employer_id_seq

Considere o seguinte modelo de relacionamento entre Work, Author e Person. Nós representamos o relacionamento entre Work e Author como uma associação muitos-para-muitos. Nós escolhemos representar o relacionamento entre Author e Person como uma associação um-para-um. Outra possibilidade seria ter Author estendendo Person.

O mapeamento do código seguinte representa corretamente estes relacionamentos:


<hibernate-mapping>

    <class name="Work" table="works" discriminator-value="W">

        <id name="id" column="id">
            <generator class="native"/>
        </id>
        <discriminator column="type" type="character"/>

        <property name="title"/>
        <set name="authors" table="author_work">
            <key column name="work_id"/>
            <many-to-many class="Author" column name="author_id"/>
        </set>

        <subclass name="Book" discriminator-value="B">
            <property name="text"/>
        </subclass>

        <subclass name="Song" discriminator-value="S">
            <property name="tempo"/>
            <property name="genre"/>
        </subclass>

    </class>

    <class name="Author" table="authors">

        <id name="id" column="id">
            <!-- The Author must have the same identifier as the Person -->
            <generator class="assigned"/> 
        </id>

        <property name="alias"/>
        <one-to-one name="person" constrained="true"/>

        <set name="works" table="author_work" inverse="true">
            <key column="author_id"/>
            <many-to-many class="Work" column="work_id"/>
        </set>

    </class>

    <class name="Person" table="persons">
        <id name="id" column="id">
            <generator class="native"/>
        </id>
        <property name="name"/>
    </class>

</hibernate-mapping
>

Existem quatro tabelas neste mapeamento: works, authors e persons matém os dados de trabalho, autor e pessoa, respectivamente. O author_work é uma tabela de associação que liga autores à trabalhos. Abaixo, segue o esquema das tabelas, gerados pelo SchemaExport:

create table works (
    id BIGINT not null generated by default as identity, 
    tempo FLOAT, 
    genre VARCHAR(255), 
    text INTEGER, 
    title VARCHAR(255), 
    type CHAR(1) not null, 
    primary key (id)
)

create table author_work (
    author_id BIGINT not null, 
    work_id BIGINT not null, 
    primary key (work_id, author_id)
)

create table authors (
    id BIGINT not null generated by default as identity, 
    alias VARCHAR(255), 
    primary key (id)
)

create table persons (
    id BIGINT not null generated by default as identity, 
    name VARCHAR(255), 
    primary key (id)
)

alter table authors 
    add constraint authorsFK0 foreign key (id) references persons
alter table author_work 
    add constraint author_workFK0 foreign key (author_id) references authors
alter table author_work
    add constraint author_workFK1 foreign key (work_id) references works

Agora considere um modelo de relacionamento entre Customer, Order e LineItem e Product. Existe uma associação um-para-muitos entre Customer e Order, mas como devemos representar Order / LineItem / Product? Neste exemplo, o LineItem é mapeado como uma classe de associação representando a associação muitos-para-muitos entre Order e Product. No Hibernate, isto é conhecido como um elemento composto.

O documento de mapeamento será parecido com:


<hibernate-mapping>

    <class name="Customer" table="customers">
        <id name="id">
            <generator class="native"/>
        </id>
        <property name="name"/>
        <set name="orders" inverse="true">
            <key column="customer_id"/>
            <one-to-many class="Order"/>
        </set>
    </class>

    <class name="Order" table="orders">
        <id name="id">
            <generator class="native"/>
        </id>
        <property name="date"/>
        <many-to-one name="customer" column="customer_id"/>
        <list name="lineItems" table="line_items">
            <key column="order_id"/>
            <list-index column="line_number"/>
            <composite-element class="LineItem">
                <property name="quantity"/>
                <many-to-one name="product" column="product_id"/>
            </composite-element>
        </list>
    </class>

    <class name="Product" table="products">
        <id name="id">
            <generator class="native"/>
        </id>
        <property name="serialNumber"/>
    </class>

</hibernate-mapping
>

customers, orders, line_items e products recebem os dados de customer, order, line_item e product, respectivamente. line_items também atua como uma tabela de associação ligando ordens a produtos.

create table customers (
    id BIGINT not null generated by default as identity, 
    name VARCHAR(255), 
    primary key (id)
)

create table orders (
    id BIGINT not null generated by default as identity, 
    customer_id BIGINT, 
    date TIMESTAMP, 
    primary key (id)
)

create table line_items (
    line_number INTEGER not null, 
    order_id BIGINT not null, 
    product_id BIGINT, 
    quantity INTEGER, 
    primary key (order_id, line_number)
)

create table products (
    id BIGINT not null generated by default as identity, 
    serialNumber VARCHAR(255), 
    primary key (id)
)

alter table orders 
    add constraint ordersFK0 foreign key (customer_id) references customers
alter table line_items
    add constraint line_itemsFK0 foreign key (product_id) references products
alter table line_items
    add constraint line_itemsFK1 foreign key (order_id) references orders

Todos estes exemplos são retirados do conjunto de testes do Hibernate. Lá, você encontrará vários outros exemplos úteis de mapeamentos. Verifique o diretório test da distribuição do Hibernate.


<class name="Customer">

    <id name="customerId"
        length="10">
        <generator class="assigned"/>
    </id>

    <property name="name" not-null="true" length="100"/>
    <property name="address" not-null="true" length="200"/>

    <list name="orders"
            inverse="true"
            cascade="save-update">
        <key column="customerId"/>
        <index column="orderNumber"/>
        <one-to-many class="Order"/>
    </list>

</class>

<class name="Order" table="CustomerOrder" lazy="true">
    <synchronize table="LineItem"/>
    <synchronize table="Product"/>
    
    <composite-id name="id" 
            class="Order$Id">
        <key-property name="customerId" length="10"/>
        <key-property name="orderNumber"/>
    </composite-id>
    
    <property name="orderDate" 
            type="calendar_date"
            not-null="true"/>
    
    <property name="total">
        <formula>
            ( select sum(li.quantity*p.price) 
            from LineItem li, Product p 
            where li.productId = p.productId 
                and li.customerId = customerId 
                and li.orderNumber = orderNumber )
        </formula>
    </property>
    
    <many-to-one name="customer"
            column="customerId"
            insert="false"
            update="false" 
            not-null="true"/>
        
    <bag name="lineItems"
            fetch="join" 
            inverse="true"
            cascade="save-update">
        <key>
            <column name="customerId"/>
            <column name="orderNumber"/>
        </key>
        <one-to-many class="LineItem"/>
    </bag>
    
</class>
    
<class name="LineItem">
    
    <composite-id name="id" 
            class="LineItem$Id">
        <key-property name="customerId" length="10"/>
        <key-property name="orderNumber"/>
        <key-property name="productId" length="10"/>
    </composite-id>
    
    <property name="quantity"/>
    
    <many-to-one name="order"
            insert="false"
            update="false" 
            not-null="true">
        <column name="customerId"/>
        <column name="orderNumber"/>
    </many-to-one>
    
    <many-to-one name="product"
            insert="false"
            update="false" 
            not-null="true"
            column="productId"/>
        
</class>

<class name="Product">
    <synchronize table="LineItem"/>

    <id name="productId"
        length="10">
        <generator class="assigned"/>
    </id>
    
    <property name="description" 
        not-null="true" 
        length="200"/>
    <property name="price" length="3"/>
    <property name="numberAvailable"/>
    
    <property name="numberOrdered">
        <formula>
            ( select sum(li.quantity) 
            from LineItem li 
            where li.productId = productId )
        </formula>
    </property>
    
</class
>

<class name="Person"
    discriminator-value="P">
    
    <id name="id" 
        column="person_id" 
        unsaved-value="0">
        <generator class="native"/>
    </id>
    
            
    <discriminator 
        type="character">
        <formula>
            case 
                when title is not null then 'E' 
                when salesperson is not null then 'C' 
                else 'P' 
            end
        </formula>
    </discriminator>

    <property name="name" 
        not-null="true"
        length="80"/>
        
    <property name="sex" 
        not-null="true"
        update="false"/>
    
    <component name="address">
        <property name="address"/>
        <property name="zip"/>
        <property name="country"/>
    </component>
    
    <subclass name="Employee" 
        discriminator-value="E">
            <property name="title"
                length="20"/>
            <property name="salary"/>
            <many-to-one name="manager"/>
    </subclass>
    
    <subclass name="Customer" 
        discriminator-value="C">
            <property name="comments"/>
            <many-to-one name="salesperson"/>
    </subclass>
    
</class
>
Escreva classes compactas e mapeie-as usando <component>:

Use uma classe Endereço para encapsular rua, bairro, estado, CEP. Isto promove a reutilização de código e simplifica o refactoring.

Declare propriedades identificadoras em classes persistentes:

O Hibernate constrói propriedades identificadoras opcionais. Existem inúmeras razões para utilizá-las. Nós recomendamos que os identificadores sejam 'sintéticos', quer dizer, gerados sem significado para negócios.

Identifique chaves naturais:

Identifique chaves naturais para todas as entidades, e mapeie-as usando <natural-id>. Implemente equals() e hashCode() para comparar as propriedades que compõem a chave natural.

Coloque cada classe de mapeamento em seu próprio arquivo:

Não use um único código de mapeamento monolítico. Mapeie com.eg.Foo no arquivo com/eg/Foo.hbm.xml. Isto faz bastante sentido, especialmente em ambiente de equipe.

Carregue os mapeamentos como recursos:

Implemente os mapeamentos junto às classes que eles mapeiam.

Considere a possibilidade de externar as strings de consultas:

Esta é uma boa prática se suas consultas chamam funções SQL que não sejam ANSI. Externar as strings de consultas para mapear arquivos irá tornar a aplicação mais portável.

Use variáveis de vínculo.

Assim como em JDBC, sempre substitua valores não constantes por "?". Nunca use a manipulação de strings para concatenar valores não constantes em uma consulta. Até melhor, considere a possibilidade de usar parâmetros nomeados nas consultas.

Não gerencie suas conexões JDBC:

O Hibernate permite que a aplicação gerencie conexões JDBC, mas esta abordagem deve ser considerada um último recurso. Se você não pode usar os provedores de conexão embutidos, considere fazer sua implementação a partir de org.hibernate.connection.ConnectionProvider.

Considere a possibilidade de usar tipos customizados:

Suponha que você tenha um tipo Java, de alguma biblioteca, que precisa ser persistido mas não provê de acessórios necessários para mapeá-lo como um componente. Você deve implementar org.hibernate.UserType. Esta abordagem livra o código da aplicação de implementar transformações de/para o tipo Hibernate.

Use código manual JDBC nos afunilamentos:

Nas áreas de desempenho crítico do sistema, alguns tipos de operações podem se beneficiar do uso direto do JDBC. Mas por favor, espere até você saber se é um afunilamento. E não suponha que o uso direto do JDBC é necessariamente mais rápido. Se você precisar usar diretamente o JDBC, vale a pena abrir uma Session do Hibernate, embrulhar a sua operaçäo JDBC como um objeto org.hibernate.jdbc.Work e usar uma conexão JDBC. De modo que você possa ainda usar a mesma estratégia de transação e ocultar o provedor a conexão.

Entenda o esvaziamento da Session:

De tempos em tempos a sessão sincroniza seu estado persistente com o banco de dados. O desempenho será afetado se este processo ocorrer frequentemente. Você pode algumas vezes minimizar a liberação desnecessária desabilitando a liberação automática ou até mesmo mudando a ordem das consultas e outras operações em uma transação particular.

Em uma arquitetura de três camadas, considere o uso de objetos separados:

Ao usar a arquitetura do bean de sessão/servlet, você pode passar os objetos persistentes carregados no bean de sessão para e a partir da camada servlet/JSP. Use uma nova sessão para manipular cada solicitação. Use a Session.merge() ou a Session.saveOrUpdate() para sincronizar objetos com o banco de dados.

Em uma arquitetura de duas camadas, considere o uso de contextos de longa persistência:

As Transações do Banco de Dados precisam ser as mais curtas possíveis para uma melhor escalabilidade. No entanto, é geralmente necessário implementar transações de aplicações de longa duração, uma única unidade de trabalho a partir do ponto de vista de um usuário. Uma transação de aplicação pode transpor diversos ciclos de solicitação/resposta de cliente. É comum usar objetos desanexados para implementar as transações de aplicação. Uma outra alternativa, extremamente apropriada em uma arquitetura de duas camadas, é manter um único contato de persistência aberto (sessão) para todo o tempo de vida da transação de aplicação e simplesmente disconectá-lo do JDBC ao final de cada solicitação e reconectá-lo no início de uma solicitação subsequente. Nunca compartilhe uma sessão única com mais de uma transação de aplicação, ou você irá trabalhar com dados antigos.

Não trate as exceções como recuperáveis:

Isto é mais uma prática necessária do que uma "melhor" prática. Quando uma exceção ocorre, retorne à Transaction e feche a Sessão. Se não fizer isto, o Hibernate não poderá garantir que o estado em memória representará de forma precisa o estado persistente. Como este é um caso especial, não utilize a Session.load() para determinar se uma instância com dado identificador existe em um banco de dados, use Session.get() ou então uma consulta.

Prefira a busca lazy para associações:

Use a busca antecipada de forma moderada. Use as coleções proxy e lazy para a maioria das associações para classes que possam não ser completamente mantidas em cache de segundo nível. Para associações de classes em cache, onde existe uma enorme probabilidade de coincidir caches, desabilite explicitamente a busca antecipada usando lazy="false". Quando uma busca de união é apropriada para um caso específico, use a consulta com left join fetch.

Use o modelo sessão aberta na visualização, ou uma fase de construção para evitar problemas com dados não encontrados.

O Hibernate libera o desenvolvedor de escrever Objetos de Transferência de Dados (DTO). Em uma arquitetura tradicional EJB, os DTOs servem dois propósitos: primeiro, eles se deparam com o problema de que os beans de entidade não são serializáveis, depois, eles implicitamente definem uma fase de construção onde todos os dados a serem utilizados pelo view são buscados e conduzidos aos DTOs antes mesmo de retornar o controle à camada de apresentação. O Hibernate elimina o primeiro propósito. No entanto, você ainda precisará de uma fase de construção (pense em seus métodos de negócios como tendo um contrato estrito com a camada de apresentação sobre o quais dados estão disponíveis nos objetos desanexados) a não ser que você esteja preparado para manter o contexto de persistência (sessão) aberto no processo de renderização da visualização. Isto não é uma limitação do Hibernate. É uma solicitação fundamental para acesso a dados transacionais seguros.

Considere abstrair sua lógica comercial do Hibernate:

Oculte (Hibernate) o código de acesso a dados atrás de uma interface. Combine os modelos DAO e Sessão Local de Thread. Você pode também persistir algumas classes pelo JDBC handcoded, associado ao Hibernate via um UserType. Este é um conselho para aplicações "grandes o suficiente", não é apropriado para uma aplicação com cinco tabelas.

Não use mapeamentos de associação exóticos:

Casos de testes práticos para associações muitos-para-muitos reais são raros. A maioria do tempo você precisa de informação adicional armazenada na " tabela de link". Neste caso, é muito melhor usar associações dois um-para-muitos para uma classe de link intermediário. Na verdade, acreditamos que a maioria das associações é um-para-muitos e muitos-para-um, você deve tomar cuidado ao utilizar qualquer outro tipo de associação e perguntar a você mesmo se é realmente necessário.

Prefira associações bidirecionais:

As associações unidirecionais são mais difíceis para pesquisar. Em aplicações grandes, quase todas as associações devem navegar nas duas direções em consultas.

Originalmente, o Hibernate sempre solicita que os usuários especifiquem qual dialeto a ser usado. No caso dos usuários buscarem banco de dados múltiplos de destinação simultaneamente com as próprias construções que eram problemáticas. Normalmente, isto solicita que seus próprios usuários configurem o dialeto do Hibernate ou definam o próprio método de determinação do valor.

Inicializando com a versão 3.2, o Hibernate introduziu a noção de detecção automática do dialeto para uso baseado no java.sql.DatabaseMetaData obtido a partir de um java.sql.Connection para aquele banco de dados. Era muito melhor, esperar que esta resolução limitada aos bancos de dados Hibernate soubesse com antecedência e que em ocasião alguma era configurável ou substituível.

Starting with version 3.3, Hibernate has a fare more powerful way to automatically determine which dialect to should be used by relying on a series of delegates which implement the org.hibernate.dialect.resolver.DialectResolver which defines only a single method:

<!-- <br/> --><span class="java_keyword">public</span><!-- <br/> --><span class="java_plain">&nbsp;</span><!-- <br/> --><span class="java_type">Dialect</span><!-- <br/> --><span class="java_plain">&nbsp;resolveDialect</span><!-- <br/> --><span class="java_separator">(</span><!-- <br/> --><span class="java_type">DatabaseMetaData</span><!-- <br/> --><span class="java_plain">&nbsp;metaData</span><!-- <br/> --><span class="java_separator">)</span><!-- <br/> --><span class="java_plain">&nbsp;</span><!-- <br/> --><span class="java_keyword">throws</span><!-- <br/> --><span class="java_plain">&nbsp;</span><!-- <br/> --><span class="java_type">JDBCConnectionException</span>

. The basic contract here is that if the resolver 'understands' the given database metadata then it returns the corresponding Dialect; if not it returns null and the process continues to the next resolver. The signature also identifies org.hibernate.exception.JDBCConnectionException as possibly being thrown. A JDBCConnectionException here is interpreted to imply a "non transient" (aka non-recoverable) connection problem and is used to indicate an immediate stop to resolution attempts. All other exceptions result in a warning and continuing on to the next resolver.

A melhor parte destes solucionadores é que os usuários também podem registrar os seus próprios solucionadores personalizados dos quais serão processados antes dos Hibernates internos. Isto poderá ser útil em um número diferente de situações: permite uma integração fácil de auto-detecção de dialetos além daqueles lançados com o próprio Hibernate. Além disto, permite que você especifique o uso de um dialeto personalizado quando um banco de dados particular é reconhecido, etc. Para registrar um ou mais solucionadores, apenas especifique-os (separados por vírgula, tabs ou espaços) usando o conjunto de configuração 'hibernate.dialect_resolvers' (consulte a constante DIALECT_RESOLVERS no org.hibernate.cfg.Environment).

When considering portability between databases, another important decision is selecting the identifier generation stratagy you want to use. Originally Hibernate provided the native generator for this purpose, which was intended to select between a sequence, identity, or table strategy depending on the capability of the underlying database. However, an insidious implication of this approach comes about when targtetting some databases which support identity generation and some which do not. identity generation relies on the SQL definition of an IDENTITY (or auto-increment) column to manage the identifier value; it is what is known as a post-insert generation strategy becauase the insert must actually happen before we can know the identifier value. Because Hibernate relies on this identifier value to uniquely reference entities within a persistence context it must then issue the insert immediately when the users requests the entitiy be associated with the session (like via save() e.g.) regardless of current transactional semantics.

The underlying issue is that the actual semanctics of the application itself changes in these cases.

Starting with version 3.2.3, Hibernate comes with a set of enhanced identifier generators targetting portability in a much different way.

Nota

There are specifically 2 bundled enhancedgenerators:

  • org.hibernate.id.enhanced.SequenceStyleGenerator

  • org.hibernate.id.enhanced.TableGenerator

The idea behind these generators is to port the actual semantics of the identifer value generation to the different databases. For example, the org.hibernate.id.enhanced.SequenceStyleGenerator mimics the behavior of a sequence on databases which do not support sequences by using a table.