预览模式: 普通 | 列表
还是做Many-to-One的时候遇见的错误,级联检索不允许。

试验了一下发现了几个解决方法:
1、是把对应一对多的那两个列lazy=true改为lazy=false即可
2、对于查询中如果用的是xxx.load(class,id)则改为xxx,get(class,id)
3在web.xml文件中加入

<filter>
  <filter-name>hibernateFilter</filter-name>

查看更多...

分类:Hibernate | 固定链接 | 评论: 0 | 引用: 0 | 查看次数: 1019
08-01
18

JAVA文件操作之远程采集文件

import java.io.BufferedInputStream;
import java.io.BufferedOutputStream;
import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.net.HttpURLConnection;

/**
* 网络文件存取类

查看更多...

Tags: 远程采集 自动采集

分类:学习 | 固定链接 | 评论: 0 | 引用: 0 | 查看次数: 761
08-01
18

JSP远程采集原理

用jsp研究了下,发现原来小偷可以如此简单。。。。差不多就是读取文件,只是变为了远程而已

代码如下:
<%@ page language="java" pageEncoding="UTF-8"%>
<%@ page import="java.io.*,java.net.URL"%>
<%
URL url = new URL("http://www.itpub.net");//建立URL对象,并实例化为url,获得要抓取的网页地址
BufferedReader reader = new BufferedReader(new InputStreamReader(url.openStream(),"GB2312"));//建立BufferedReader对象,并实例化为reader,这里的GB2312是要抓取的网页编码格式
while(reader.ready())

查看更多...

Tags: 远程采集 自动采集

分类:Java&Jsp | 固定链接 | 评论: 0 | 引用: 0 | 查看次数: 734
08-01
18

浅谈自动采集程序及入库

最近网上流行着一些采集程序,更多人拿着这些东西在网上叫卖,很多不太懂的人看着那些程序眼羡,其实如果你懂一些ASP,了解自动采集程序的原理后,你会感觉实现自动化也是那么的简单.
原理及优点:通过XML中的XMLHTTP组件调用其它网站上的网页,然后批量截取或替换原有的信息使其转化成变量后再一一储存到数据库中。其主要的优点便是无需再手工添加大量的信息了,可以指定对某一个站信息的截取进行批量录入,达到省时省力的目的。与其单纯的ASP小偷程序不同的是:它已经不再依赖其目标网站。
简单事例:
1<%
2'声明取得目标信息的函数,通过XML组件进行实现。
3Function GetURL(url)
4Set Retrieval = CreateObject("Microsoft.XMLHTTP")
5With Retrieval
6.Open "GET", url, False

查看更多...

Tags: 自动采集

分类:Asp&Php | 固定链接 | 评论: 0 | 引用: 0 | 查看次数: 528
08-01
18

去空行程序

import java.io.*;
import java.util.*;
import java.util.regex.*;

public class FileChooser {
    private String filePath;

    private String newFilePath;

查看更多...

Tags: 去空行 去回行

分类:学习 | 固定链接 | 评论: 0 | 引用: 0 | 查看次数: 724
08-01
18

批量更改文件名

import java.io.*;
import java.io.*;

public class FileRename {
    private File dir;

    private String absolute;

    public FileRename(File dir) throws Exception

查看更多...

Tags: 批量 批处理 更改文件名

分类:学习 | 固定链接 | 评论: 0 | 引用: 0 | 查看次数: 660