最近一直在做photoGrid的iOS版本的开发,遇到过很多问题。
目前我的UIView里有一个UIImageView。
这里的UIImageView的状态初始是这样的:
_imageView = [[UIImageView alloc] init];
_imageView.frame = self.bounds;
_imageView.contentMode = UIViewContentModeScaleAspectFill;
_imageView.autoresizingMask = (UIViewAutoresizingFlexibleHeight |
UIViewAutoresizingFlexibleWidth |
UIViewAutoresizingFlexibleTopMargin |
UIViewAutoresizingFlexibleLeftMargin|
UIViewAutoresizingFlexibleRightMargin |
UIViewAutoresizingFlexibleBottomMargin);
因为这个是拼图软件,坐标都是计算转换出来的,难免有浮点,而iOS支持的坐标最小是 0.5f 的精度。在对外面的UIView和内部的ImageView的坐标都进行设置后,我们发现图片和图片之间会有明显的缝隙,这是为什么呢?
系统会对UIImageView的坐标进行优化,会成为整型,这样我们就看到了Image和Image之间的明显的缝隙了。
那么如何解决呢? 很简单,设置一下UIImageView的frame
_imageView.frame = self.bounds;
但是这样做带来了别的问题。
因为我在这里有对这个UIImageView的仿射矩阵做(transform)变换以达到位移、放缩等效果。如果在设置了frame之后再对这个UIImageView做改变仿射矩阵操作,你会发现之前的效果被重置了,如果此时你再去做放缩等操作,都是在原来的基础上再做的变化。
比如,之前你缩小到0.5倍,然后你会发现图片会重置到ScaleAspectFit,然后再缩小到0.5倍,此时的仿射矩阵的倍率值(transform.a)就是0.25了,而肉眼观察到的则是0.5倍的缩放。
哪儿有问题呢?
最后终于在API Document里面找到这么一小段话
// animatable. do not use frame if view
// is transformed since it will not correctly
// reflect the actual location of the view. use bounds + center instead.
// 动画属性。不要在view变形之后使用frame
// 否则会导致其不能正确的映射出view的真实位置。用bounds + center 代替
好吧,一切释然了,我检查了好久的bug居然只是一句小小的注释就解决了。
//_imageView.frame = self.bounds;
_imageView.bounds = self.bounds;
_imageView.center = CGPointMake(self.bounds.size.width / 2, self.bounds.size.height / 2);
OK,正常了!